JP2017054307A - Utterance content evaluation system and utterance content evaluation method - Google Patents
Utterance content evaluation system and utterance content evaluation method Download PDFInfo
- Publication number
- JP2017054307A JP2017054307A JP2015177770A JP2015177770A JP2017054307A JP 2017054307 A JP2017054307 A JP 2017054307A JP 2015177770 A JP2015177770 A JP 2015177770A JP 2015177770 A JP2015177770 A JP 2015177770A JP 2017054307 A JP2017054307 A JP 2017054307A
- Authority
- JP
- Japan
- Prior art keywords
- utterance content
- word
- frequency
- evaluation
- score
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000011156 evaluation Methods 0.000 title claims abstract description 174
- 238000009826 distribution Methods 0.000 claims abstract description 20
- 230000014509 gene expression Effects 0.000 claims abstract description 18
- 230000000717 retained effect Effects 0.000 claims 1
- 238000003860 storage Methods 0.000 description 86
- 238000010606 normalization Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 12
- 238000000605 extraction Methods 0.000 description 8
- 238000009825 accumulation Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 5
- 239000000284 extract Substances 0.000 description 2
- 238000003745 diagnosis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Sub-Exchange Stations And Push- Button Telephones (AREA)
- Telephonic Communication Services (AREA)
Abstract
【課題】評価者の能力に依存せずに、精度高くオペレータの発話内容を自動的に評価する。
【解決手段】各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け平均頻度と、平均頻度標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現頻度スコア係数とし、各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け相対出現位置と、出現位置標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算し、評価する発話内容の各々の単語に対して、出現頻度スコア係数をかけた正規分布評価式の出現頻度の評価値と、出現位置スコア係数をかけた正規分布評価式の出現位置の評価値とを求め、評価する発話内容の単語に対して総和をとって、発話内容の評価値とする。
【選択図】 図5The present invention automatically evaluates the utterance content of an operator with high accuracy without depending on the ability of an evaluator.
For each word, a value that minimizes the difference between a weighted average frequency, an evaluation formula of a normal distribution based on an average frequency standard deviation, and a sample score over all utterance content samples is represented as an appearance frequency score. For each word, for each word, a value that minimizes the difference between the weighted relative appearance position and the normal distribution evaluation formula based on the appearance position standard deviation and the sample score is used for each word. For each word of utterance content calculated and evaluated as a coefficient, the appearance frequency evaluation value of the normal distribution evaluation formula multiplied by the appearance frequency score coefficient and the appearance position of the normal distribution evaluation expression multiplied by the appearance position score coefficient And the sum of the words of the utterance content to be evaluated is taken as the evaluation value of the utterance content.
[Selection] Figure 5
Description
本発明は、発話内容評価システム、及び、発話内容評価方法に係り、特に、コールセンターにおけるオペレータの応対を評価して応対スキルを診断する用途に好適な発話内容評価システム、及び、発話内容評価方法に関する。 The present invention relates to an utterance content evaluation system and an utterance content evaluation method, and more particularly, to an utterance content evaluation system and an utterance content evaluation method suitable for use in diagnosing reception skills by evaluating an operator's reception in a call center. .
コールセンターは、企業において顧客への電話対応業務を専門に行う事業所・部門である。コールセンターには、一般消費者向けの通信販売・サービス業・製造業を行う企業が、苦情・各種問い合わせ・注文を受け付けるものや、コンピュータ操作など機器の操作を電話により教えるものなどがある。 A call center is a business establishment / department that specializes in telephone support for customers in a company. Some call centers include mail order / service / manufacturing companies for general consumers that accept complaints, various inquiries and orders, and others that teach device operations such as computer operations over the phone.
そして、いずれの場合でも、コールセンターのオペレータの応答は、顧客に対する企業イメージ、顧客満足になどに大きな影響を与えるため、企業サイドとしては、質の高いオペレータを確保することが重要になる。 In any case, the response of the call center operator greatly affects the corporate image of the customer, customer satisfaction, etc., so it is important for the corporate side to secure a high-quality operator.
従来、このようなコールセンターによるオペレータの応対の評価は人手によって行われていた。しかし、多量の発話を評価するには多大なコストを要するために評価の対象が限定されることと、評価者の先入観等により評価が主観的になりやすいことから、評価の精度を上げることが困難であった。この課題に対し特許文献1では、情報処理装置を用いて、音声認識を利用して自動的に発話内容を評価する技術が提案されている。特許文献1の「電話応答診断装置」では、オペレータの電話応答を音声認識して、テキスト化し、そのテキストを項目ごとにグループ化した後に、表現パターンとマッチングさせることにより、発話者(クリエータ)の電話応答を評価している。
Conventionally, the operator's response evaluation by such a call center has been performed manually. However, evaluating a large amount of utterances requires a great deal of cost, so the target of the evaluation is limited, and the evaluation tends to be subjective due to the preconceptions of the evaluator. It was difficult. In order to solve this problem,
上記特許文献1に記載された技術のように、コールセンターにおけるオペレータの応対を評価する際、コストを削減するために音声認識を利用して自動的に発話内容を評価することが可能である。しかしながら、従来技術の特許文献1では、評価方法としては決められた単語を用いたパターンとマッチングするか否かを判定することになるため、予め評価者が評価基準を作成する必要があり完全な自動評価ではない。また、評価基準の作成時に評価者の主観が含まれる余地があり、客観的な評価とは言い難いことと評価精度が評価者の能力に依存するという問題点があった。
As in the technique described in
本発明は、上記問題点を解決するためになされたもので、その目的は、複数の評価済みでスコアをつけられた発話内容との差異を評価することより、評価者の能力に依存せずに、精度が高くオペレータの発話内容を自動的に評価することができる発話内容評価システムを提供することにある。 The present invention has been made to solve the above problems, and its purpose is not to depend on the evaluator's ability to evaluate the difference between a plurality of evaluated and scored utterance contents. Another object of the present invention is to provide an utterance content evaluation system that can automatically evaluate the utterance content of an operator with high accuracy.
本発明の発話内容評価システムは、各々スコア付けされた一つ以上の発話内容のサンプルに基づき、発話内容を評価する発話内容評価システムであって、発話内容のサンプルの各々の単語の出現頻度と、発話内容のサンプルの各々の単語の相対出現位置とを計算し、各々の単語に対して、発話内容のスコアにより重み付けられた出現頻度の重み付け平均頻度と、発話内容のスコアにより重み付けられた出現頻度の平均頻度標準偏差とを計算する。 The utterance content evaluation system of the present invention is an utterance content evaluation system that evaluates utterance content based on one or more utterance content samples each scored, and the appearance frequency of each word in the utterance content sample and Calculate the relative appearance position of each word in the utterance content sample, and for each word, the weighted average frequency of the appearance frequency weighted by the utterance content score and the appearance weighted by the utterance content score Calculate the average frequency standard deviation of the frequency.
次に、各々の単語に対して、発話内容のスコアにより重み付けられた相対出現位置の重み付け平均出現位置と、発話内容のスコアにより重み付けられた相対出現位置の出現位置標準偏差とを計算し、各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け平均頻度と、平均頻度標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現頻度スコア係数として計算する。そして、各々の単語に対して、全ての発話内容のサンプルにわたり、重み付け相対出現位置と、出現位置標準偏差による正規分布の評価式とサンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算し、評価する発話内容の各々の単語に対して、出現頻度スコア係数をかけた重み付け平均頻度と、平均頻度標準偏差による正規分布の評価式を、評価時の出現頻度の評価式として、その単語に対する出現頻度の評価値を求める。発話内容の評価時には、評価する発話内容の各々の単語に対して、出現位置スコア係数をかけた重み付け平均出現位置と、出現位置標準偏差による正規分布の評価式を、評価時の出現位置の評価式として、その単語に対する出現位置の評価値を求め、評価する発話内容の各々の単語にわたり、出現頻度の評価値と、出現位置の評価値の総和をとって、評価する発話内容の評価値とする。 Next, for each word, calculate the weighted average appearance position of the relative appearance position weighted by the utterance content score, and the appearance position standard deviation of the relative appearance position weighted by the utterance content score, A value that minimizes the difference between the weighted average frequency, the normal distribution evaluation formula based on the average frequency standard deviation, and the score of the sample is calculated as an appearance frequency score coefficient. Then, for each word, over the sample of all utterance contents, a value that minimizes the difference between the weighted relative appearance position, the normal distribution evaluation formula based on the appearance position standard deviation, and the score of the sample is represented as an appearance position score coefficient. For each word of the utterance content to be calculated and evaluated, the weighted average frequency multiplied by the appearance frequency score coefficient and the normal distribution evaluation formula by the average frequency standard deviation are used as the evaluation expression of the appearance frequency at the time of evaluation. The evaluation value of the appearance frequency for the word is obtained. When evaluating the utterance content, for each word in the utterance content to be evaluated, the weighted average appearance position multiplied by the appearance position score coefficient and the normal distribution evaluation formula based on the appearance position standard deviation are evaluated. As an expression, the evaluation value of the appearance position for the word is obtained, and the evaluation value of the appearance frequency and the evaluation value of the utterance content to be evaluated are obtained by taking the sum of the evaluation value of the appearance frequency and the evaluation value of the appearance position over each word of the utterance content to be evaluated. To do.
本発明によれば、複数の評価済みでスコアをつけられた発話内容との差異を評価することより、評価者の能力に依存せずに、精度高くオペレータの発話内容を自動的に評価することができる発話内容評価システムを提供することができる。 According to the present invention, it is possible to automatically evaluate an utterance content of an operator with high accuracy without depending on an evaluator's ability, by evaluating a difference from a plurality of evaluated and scored utterance content. It is possible to provide an utterance content evaluation system that can
以下、本発明に係る一実施形態を、図1ないし図18Bを用いて説明する。 Hereinafter, an embodiment according to the present invention will be described with reference to FIGS. 1 to 18B.
先ず、図1ないし図4を用いて本発明の一実施形態に係る発話内容評価システムの構成について説明する。図1は、本発明の一実施形態に係る発話内容評価システムのブロック図である。図2は、本発明の一実施形態に係る発話内容評価システムのハードウェア構成図である。図3は、過去発話内容蓄積部と評価基準生成部の詳細な機能ブロック図である。図4は、発話内容評価部の詳細な機能ブロック図である。 First, the configuration of an utterance content evaluation system according to an embodiment of the present invention will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram of an utterance content evaluation system according to an embodiment of the present invention. FIG. 2 is a hardware configuration diagram of the utterance content evaluation system according to the embodiment of the present invention. FIG. 3 is a detailed functional block diagram of the past utterance content accumulation unit and the evaluation criterion generation unit. FIG. 4 is a detailed functional block diagram of the utterance content evaluation unit.
本実施形態の発話内容評価システムは、図1に示されるように、音声認識部101、評価基準生成部102、発話内容評価部103、評価結果格納部104、過去発話内容蓄積部105からなる。
As shown in FIG. 1, the utterance content evaluation system according to the present embodiment includes a
音声認識部101は、評価対象の発話データをテキストデータに変換し、発話内容106として発話内容評価部103に送信する。
評価基準生成部102は、過去発話内容蓄積部105に蓄積された発話内容と対応するスコアを、それぞれ過去発話内容108と過去発話スコア109として受信し、評価基準を自動生成し、生成評価基準107として発話内容評価部103に送信する。
The
The evaluation
発話内容評価部103は、評価基準生成部102から受信した生成評価基準107に基づき、発話のスコアを計算し、発話内容評価結果110として評価結果格納部104に送信する。
評価結果格納部104は、発話内容評価部103から受信した発話内容評価結果110を格納する。
The utterance
The evaluation
過去発話内容蓄積部105は、発話内容と対応するスコアを過去発話内容として格納する。
The past utterance
次に、図2を用いて本実施形態の発話内容評価システムのハードウェア構成について説明する。
発話内容評価システムのハードウェア構成としては、例えば、図2に示されるような一般的な情報処理装置400で実現される。
情報処理装置400は、CPU(Central Processing Unit)402、主記憶装置404、ネットワークI/F406、表示I/F408、入出力I/F410、補助記憶I/F412が、バスにより結合された形態になっている。
Next, the hardware configuration of the utterance content evaluation system of this embodiment will be described with reference to FIG.
The hardware configuration of the utterance content evaluation system is realized by, for example, a general
The
CPU402は、情報処理装置400の各部を制御し、主記憶装置404に必要なプログラムをロードして実行する。
The
主記憶装置404は、通常、RAMなどの揮発メモリで構成され、CPU402が実行するプログラム、参照するデータが記憶される。
The
ネットワークI/F406は、ネットワークと接続するためのインタフェースである。 表示I/F408は、LCD(Liquid Crystal Display)などの表示装置420を接続するためのインタフェースである。
A network I /
入出力I/F410は、入出力装置を接続するためのインタフェースである。図5の例では、キーボード430とポインティングデバイスのマウス432が接続されている。
The input / output I /
補助記憶I/F412は、HDD(Hard Disk Drive)450やDVDドライブなどの補助記憶装置を接続するためのインタフェースである。
HDD450は、大容量の記憶容量を有しており、本実施形態を実行するためのプログラムが格納されている。本実施形態の情報処理装置400には、音声認識プログラム460、評価基準生成プログラム462、発話内容評価プログラム464がインストールされている。また、データベースとして、過去発話内容DB470、評価基準生成DB472、発話内容評価DB474を保持している。
The auxiliary storage I /
The
音声認識プログラム460は、評価対象の発話データをテキストデータに変換し、発話内容として発話内容評価プログラム464に受け渡す。評価基準生成プログラム462は、過去発話内容蓄積DB470に蓄積された発話内容と対応するスコアを、それぞれ過去発話内容と過去発話スコアとして参照し、評価基準を自動生成し、生成評価基準として発話内容評価プログラムに受け渡す。
The speech recognition program 460 converts the utterance data to be evaluated into text data, and passes it to the utterance
発話内容評価プログラム464は、評価基準生成プログラムで生成された生成評価基準に基づき、発話のスコアを計算し、発話内容評価結果として評価結果格納DB472に格納する。
The utterance
過去発話内容蓄積DB470は、過去の発話内容と、それに対応するスコアを過去発話内容として格納するデータベースである。
The past utterance
評価基準生成DB472は、評価基準時に作られるテーブル類を格納するデータベースである。
The evaluation
評価結果格納DB474は、発話内容評価時に作られるテーブル類と、発話内容評価結果を格納するデータベースである。
The evaluation
次に、図3を用いて過去発話内容蓄積部と、評価基準生成部の詳細な機能構成を説明する。 Next, detailed functional configurations of the past utterance content accumulation unit and the evaluation criterion generation unit will be described with reference to FIG.
発話内容格納部201は、過去発話内容108の発話内容を、単語リスト抽出部208と総文字数カウント部203に送信する。
総文字数カウント部203は、発話内容格納部201から受信した過去発話内容108から各発話毎に総文字数をカウントし、総文字数情報204として総文字数格納部205に送信する。
The utterance
The total
総文字数格納部205は、総文字数カウント部203から受信した総文字数情報204を格納し、総文字数データ206として正規化頻度計算部215と、相対位置計算部224に送信する。
The total character
単語リスト抽出部208は、発話内容格納部201から受信した過去発話内容108から単語のリストを抽出し、単語リスト209として単語頻度カウント部211と単語・頻度リスト格納部213に送信する。なお、単語の抽出には、特許文献2に記載されている技術等が利用できる。
The word
単語頻度カウント部211は、単語リスト抽出部208から受信した単語リスト209に含まれる単語の発話中の出現頻度をカウントし、頻度リスト212として単語・頻度リスト格納部214に送信する。
The word
単語、頻度リスト格納部213は、単語リスト抽出部208から受信した単語リスト209を抽出単語リストとして、単語頻度カウント部211から受信した頻度リスト212を抽出単語頻度リストとして格納し、単語・頻度リスト214として正規化頻度計算部215に送信する。
The word / frequency
正規化頻度計算部215は、単語、頻度リスト格納部213から受信した単語・頻度リスト214にユーザ定義カテゴリテーブル格納部217から受信したユーザ定義カテゴリ情報216を追加し、総文字数格納部205から受信した総文字数データ206から、正規化頻度を計算する。正規化頻度の意味については、後述する。そして、ユーザ定義カテゴリ情報216を参照して、正規化頻度データ218を加工し、それを無意味単語除去部219に送信する。
The normalized
無意味単語除去部219は、正規化頻度計算部215から受信した正規化頻度データ218から、無意味単語テーブル格納部221から受信した無意味単語リスト220に含まれる単語を除去し、無意味単語除去済正規化頻度情報222として正規化頻度格納部223と相対位置計算部224に送信する。
The meaningless
正規化頻度格納部223は、無意味単語除去部218から受信した無意味単語除去済正規化頻度情報222を格納し、無意味単語除去済正規化頻度リスト226として重み付け平均頻度計算部232と、重み付け平均出現位置計算部236と平均頻度標準偏差計算部240と、出現位置標準偏差計算部244へ送信する。
The normalized
ユーザ定義カテゴリテーブル格納部217は、ユーザによって同一の扱いをするよう定義された単語を格納し、ユーザ定義カテゴリ情報216として正規化頻度計算部に送信する。
The user-defined category
無意味単語テーブル221は、評価基準の生成から除外する無意味な単語を格納し、無意味単語リスト220として無意味単語除去部219に送信する。
The meaningless word table 221 stores meaningless words to be excluded from the generation of evaluation criteria, and transmits the
相対位置計算部224は、無意味単語除去部219から受信した無意味単語除去済正規化頻度データ222と、総文字数データ206から相対位置を計算する。そして、相対位置情報227として相対位置格納部228に送信する。
The relative position calculation unit 224 calculates the relative position from the meaningless word removed normalized
相対位置格納部228は相対位置計算部224から受信した相対位置情報227を格納し、相対位置情報リスト229として重み付け平均出現位置計算部236と出現位置標準偏差計算部244に送信する。
The relative
スコア格納部230は、各発話に対応するスコアを格納し、過去発話スコア109として、重み付け平均頻度計算部232と重み付け平均出現位置計算部236と平均頻度標準偏差計算部240と出現位置標準偏差計算部244へ送信する。
The
重み付け平均頻度計算部232は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226からスコアにより重み付けした平均頻度を計算する。なお、重み付け平均頻度については、後述する。そして、重み付け平均頻度情報233として重み付け平均頻度格納部234に送信する。
The weighted average
重み付け平均頻度格納部234は、重み付け平均頻度計算部232から受信した重み付け平均頻度情報233を格納し、重み付け平均頻度情報リスト235としてスコア係数計算部248に送信する。
The weighted average
平均頻度標準偏差計算部240は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226から標準偏差を計算する。そして、平均頻度標準偏差情報241として、平均頻度標準偏差格納部242に送信する。
The average frequency
平均頻度標準偏差格納部242は、平均頻度標準偏差計算部240から受信した重み付け平均頻度標準偏差情報241を格納し、平均頻度標準偏差情報リスト243としてスコア係数計算部248に送信する。
The average frequency standard
重み付け平均出現位置計算部236は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226と相対位置格納部228から受信した相対位置情報リスト229からスコアにより重み付けした平均出現位置を計算する。なお、重み付けした平均出現位置については、後述する。そして、重み付け平均出現位置情報237として重み付け平均出現位置格納部238に送信する。
The weighted average appearance
重み付け平均出現位置格納部238は、重み付け平均出現位置計算部236から受信した重み付け平均出現位置情報237を格納し、重み付け平均出現位置情報リスト239としてスコア係数計算部248に送信する。
The weighted average appearance
出現位置標準偏差計算部244は、正規化頻度格納部223から受信した無意味単語除去済み正規化頻度リスト226と相対位置格納部228から受信した相対位置情報リスト229から標準偏差を計算する。そして、出現位置標準偏差情報245として、出現位置標準偏差格納部246に送信する。
The appearance position standard
出現位置標準偏差格納部246は、出現位置標準偏差計算部244から受信した重み付け出現位置標準偏差情報245を格納し、出現位置標準偏差情報リスト247としてスコア係数計算部248に送信する。
The appearance position standard
スコア係数計算部248は、重み付け平均頻度格納部234から受信した重み付け平均頻度情報リスト235と、平均頻度標準偏差格納部242から受信した平均頻度標準偏差情報リスト243と、重み付け平均出現位置格納部238から受信した重み付け平均出現位置情報リスト239と、出現位置標準偏差格納部246から受信した重み付け出現位置標準偏差情報リスト247から、単語ごとに出現頻度と出現位置の重み付け平均値と標準偏差を抽出する。そして、それらに基づき、単語ごとに、スコア係数を計算し、スコア係数情報225をスコア係数格納部210に送信する。なお、スコア係数の計算の仕方は、後述する。
The score
スコア係数格納部210は、スコア係数計算部248から受信したスコア係数情報225を格納する。
The score
次に、図4を用いて、発話評価基準生成部の詳細な機能構成を説明する。
発話評価基準生成部103の機能構成は、図4に示されるように、総文字数カウント部203、総文字数格納部205、単語リスト抽出部208、単語頻度カウント部211、単語・頻度リスト格納部213、正規化頻度計算部215、無意味単語除去部219、正規化頻度格納部223、ユーザ定義カテゴリテーブル格納部217、無意味単語テーブル221、相対位置計算部224、相対位置格納部228の部分は、図3に示した評価基準生成部102と同様である。
Next, a detailed functional configuration of the utterance evaluation reference generation unit will be described with reference to FIG.
As shown in FIG. 4, the functional configuration of the utterance evaluation
そして、さらに、スコア計算部250と、スコア格納部260を有する。スコア計算部250は、頻度に関するスコアを計算する頻度スコア計算部252と、出現位置スコア計算部254からなる。
Further, it has a
頻度スコア計算部252は、評価基準生成部102から、単語ごとの重み付け平均頻度と、頻度スコア係数を受信し、頻度に関するスコアを計算する。
The frequency
出現位置スコア計算部254は、評価基準生成部102から、単語ごとの重み付け出現位置と、出現位置スコア係数を受信し、出現位置に関するスコアを計算する。そして、両者のスコアは、加算され、最終的に、発話内容に関するスコアとして、スコア係数部210に格納される。
The appearance position
次に、図5、図6Aないし図6C、図7を用いて本実施形態の発話内容評価基準の生成と、それに基づく発話内容の評価の概要について説明する。図5は、発話内容評価基準の生成と、それに基づく発話内容の評価の概要を説明する図である。図6Aは、発話内容Aの内容を示す図である。図6Bは、発話内容Bの内容を示す図である。図6Cは、発話内容Cの内容を示す図である。図7は、各発話のスコアを示すスコアテーブルの一例を示す図である。 Next, the outline | summary of the production | generation of the speech content evaluation criteria of this embodiment and evaluation of the speech content based on it is demonstrated using FIG. 5, FIG. 6A thru | or FIG. 6C, FIG. FIG. 5 is a diagram for explaining the outline of the generation of the utterance content evaluation criteria and the evaluation of the utterance content based thereon. FIG. 6A is a diagram showing the content of the utterance content A. FIG. 6B is a diagram showing the content of the utterance content B. FIG. 6C is a diagram showing the content of the utterance content C. FIG. 7 is a diagram illustrating an example of a score table indicating the score of each utterance.
本実施形態の発話内容評価システムは、図5に示すように、過去の発話内容のサンプルにスコア付けをしておき、それにより評価基準に作成(評価式を生成)して、それにより、ターゲットとなる発話内容を評価するものである。本実施形態の例では、図6Aないし図6Cに示されるように、発話内容A、発話内容B、発話内容Cがあり、それらにスコアとして図7に示すように、それぞれ20、10、2がつけられているものとする。そして、それにより評価式を生成し、その評価式により発話内容Xを評価する。 As shown in FIG. 5, the utterance content evaluation system according to the present embodiment scores a sample of past utterance content, thereby creating an evaluation criterion (generating an evaluation formula), thereby generating a target. The content of the utterance is evaluated. In the example of the present embodiment, as shown in FIGS. 6A to 6C, there are utterance content A, utterance content B, and utterance content C. As shown in FIG. It shall be attached. And an evaluation formula is produced | generated by it and the utterance content X is evaluated by the evaluation formula.
各発話内容のスコアは、高いほどよいものとし、コールセンターのオペレータの熟練者、管理者などが、発話者の経歴や技能などを考慮して採点するものとする。 The higher the score of each utterance content, the better the score, and the call center operator's expert, manager, etc. shall score in consideration of the speaker's history and skills.
次に、図8及び図9、図10Aないし図R3を用いて本実施形態の評価式生成までの手順を説明する。図8は、正規化頻度計算、相対位置計算までの処理を示すフローチャートである。図9は、評価式の生成までの処理を示すフローチャートである。図10Aは、発話内容Aの頻度テーブルを示す図である。図10Bは、発話内容Bの頻度テーブルを示す図である。図10Cは、発話内容Cの頻度テーブルを示す図である。図11は、ユーザ定義カテゴリテーブルの一例を示す図である。図12は、無意味単語テーブルの一例を示す図である。図13は、各発話者の総文字数テーブルの一例を示す図である。図14Aは、無意味単語除去後の発話内容Aの正規化頻度テーブルである。図14Bは、無意味単語除去後の発話内容Bの正規化頻度テーブルである。図14Cは、無意味単語除去後の発話内容Cの正規化頻度テーブルである。図15Aは、無意味単語除去後の発話内容Aの相対出現位置テーブルである。図15Bは、無意味単語除去後の発話内容Bの相対出現位置テーブルである。図15Cは、無意味単語除去後の発話内容Cの相対出現位置テーブルである。図16Aは、無意味、低頻度単語除去後の重み付け平均頻度テーブルの一例を示す図である。図16Bは、無意味、低頻度単語除去後の重み付け相対出現位置テーブルである。図17Aは、無意味、低頻度単語除去後の平均頻度標準偏差テーブルの一例を示す図である。図17Bは、無意味、低頻度単語除去後の出現位置標準偏差テーブルの一例を示すである。図18Aは、出現頻度スコア係数テーブルの一例を示す図である。図18Bは、出現位置スコア係数テーブルの一例を示す図である。 Next, the procedure up to the generation of the evaluation formula of this embodiment will be described with reference to FIGS. 8 and 9 and FIGS. 10A to R3. FIG. 8 is a flowchart showing processing up to normalization frequency calculation and relative position calculation. FIG. 9 is a flowchart showing processing up to generation of the evaluation formula. FIG. 10A is a diagram showing a frequency table of utterance content A. FIG. FIG. 10B is a diagram showing a frequency table of the utterance content B. FIG. 10C is a diagram showing a frequency table of utterance contents C. FIG. 11 is a diagram illustrating an example of a user-defined category table. FIG. 12 is a diagram illustrating an example of a meaningless word table. FIG. 13 is a diagram illustrating an example of a total character count table for each speaker. FIG. 14A is a normalization frequency table of utterance content A after meaningless word removal. FIG. 14B is a normalization frequency table of utterance content B after meaningless word removal. FIG. 14C is a normalization frequency table of utterance content C after meaningless word removal. FIG. 15A is a relative appearance position table of the utterance content A after the meaningless word is removed. FIG. 15B is a relative appearance position table of the utterance content B after the meaningless word is removed. FIG. 15C is a relative appearance position table of the utterance content C after the meaningless word is removed. FIG. 16A is a diagram illustrating an example of a weighted average frequency table after meaningless, low-frequency word removal. FIG. 16B is a weighted relative appearance position table after meaningless, low-frequency word removal. FIG. 17A is a diagram illustrating an example of an average frequency standard deviation table after meaningless, low-frequency word removal. FIG. 17B shows an example of an appearance position standard deviation table after meaningless and low-frequency word removal. FIG. 18A is a diagram illustrating an example of an appearance frequency score coefficient table. FIG. 18B is a diagram illustrating an example of an appearance position score coefficient table.
先ず、図8を追いながら正規化頻度計算までの処理について説明する。 First, processing up to normalization frequency calculation will be described with reference to FIG.
最初に、発話内容格納部302の発話から一つを選択する(S301)。
次に、単語リスト抽出部208により、選択した発話から単語を抽出する(S302)。
次に、単語頻度カウント部211により、出現頻度をカウントする(S303)。これにより、図10Aないし図10Cに示した頻度テーブルが生成され、単語・頻度格納部213に格納される。ここで、頻度テーブルのフォーマットは、図10Aないし図10Cに示されるように、それぞれ、発話内容Aの抽出単語リスト801と、発話内容Aの単語出現頻度802、発話内容Bの抽出単語リスト901と、発話内容Bの単語出現頻度902、発話内容Cの抽出単語リスト1001、発話内容Cの単語出現頻度1002が対となっている。
First, one of the utterances in the utterance content storage unit 302 is selected (S301).
Next, the word
Next, the appearance frequency is counted by the word frequency counting unit 211 (S303). As a result, the frequency tables shown in FIGS. 10A to 10C are generated and stored in the word /
そして、総文字数カウント部203により、各発話の総文字数をカウントする(S304)。これにより、図13に示した総文字数テーブルが作成される。 Then, the total number of characters of each utterance is counted by the total character number counting unit 203 (S304). As a result, the total number of characters table shown in FIG. 13 is created.
次に、ユーザ定義カテゴリテーブル格納部217の図11に示したユーザ定義カテゴリテーブルを参照し、定義されているユーザ定義カテゴリと、各々の単語に対して、正規化頻度計算部215により、正規化頻度を計算する(S305)。ユーザ定義カテゴリとは、そのカテゴリに属する単語は、一つのものとして扱う単位である。例えば、図11に示されるように、「推奨単語カテゴリ」として、「今回に限り」、「今回だけ」、「今回のみ」は、実質上、同じ単語として扱われる。また、正規化頻度とは、その単語の頻度を、発話の総文字数で割った商である。
Next, with reference to the user-defined category table shown in FIG. 11 of the user-defined category
次に、無意味単語除去部219により、無意味単語テーブル格納部221に格納された図12に示される無意味単語テーブルを参照して、単語のリストの中から、無意味単語を除去する。そして、図14Aないし図14Cに示した無意味単語除去後の正規化頻度テーブルを、正規化頻度格納部223に格納する(S306)。ここで、無意味単語とは、発話内容の評価には寄与しないとして排除される単語である。ここで、正規化頻度テーブルのフォーマットは、図14Aないし図14Cに示されるように、それぞれ、発話内容Aの無意味単語除去後単語リスト1401と、発話内容Aの正規化頻度リスト1402、発話内容Bの無意味単語除去後単語リスト1501と、発話内容Bの正規化頻度リスト1502、発話内容Cの無意味単語除去後単語リスト1601と、発話内容Cの正規化頻度リスト1602が、それぞれ対になっている。
Next, the meaningless
次に、ユーザ定義カテゴリテーブル格納部217の図11に示したユーザ定義カテゴリテーブルを参照し、定義されているユーザ定義カテゴリと、各々の単語に対して、相対位置計算部224により、相対位置を計算する(S307)。また、相対位置とは、発話の全ての文字に対して、その単語の先頭がどこででてくるのかを先頭が0、末尾が1として、スケールとして割り振った数値である。
Next, with reference to the user-defined category table shown in FIG. 11 of the user-defined category
次に、無意味単語除去部219により、無意味単語テーブル格納部221に格納された図12に示される無意味単語テーブルを参照して、単語のリストの中から、無意味単語を除去する。そして、図15Aないし図15Cに示した無意味単語除去後の相対出現位置テーブルを、相対出現位置格納部228に格納する(S308)。単語が複数の個所で現れるときには、その相加平均をとるものとする。ここで、相対出現位置テーブルのフォーマットは、図15Aないし図15Cに示されるように、それぞれ、無意味単語除去後の発話内容Aの単語リスト2001、発話内容Aの相対出現位置リスト2002、無意味単語除去後の発話内容Bの単語リスト2101、発話内容Bの相対出現位置リスト2102、無意味単語除去後の発話内容C2201、発話内容Cの相対出現位置リスト2202が、それぞれ対になっている。
Next, the meaningless
そして、未処理の発話がないか否かを判定し(S309)、未処理の発話があれば(S309:NO)、S301に戻り、未処理の発話がなければ(S309:YES)、処理を終了する。 Then, it is determined whether or not there is an unprocessed utterance (S309). If there is an unprocessed utterance (S309: NO), the process returns to S301, and if there is no unprocessed utterance (S309: YES), the process is performed. finish.
次に、図9を追いながら正規化頻度計算から、評価式生成までの処理について説明する。 Next, processing from normalization frequency calculation to evaluation formula generation will be described with reference to FIG.
先ず、正規化頻度格納部223に格納された正規化頻度テーブルの単語を一つ選択する(S401)。
そして、少なくとも一つの発話で該当の単語の正規化頻度が、所定の閾値より高いか否かを判定する(S402)。全ての発話で正規化頻度が、所定の閾値より高くない単語だった場合には(S402:NO)、その単語を処理せずに、S402の処理に戻り、少なくとも一つの発話で頻度が、所定の閾値より高い単語だった場合は、S404の処理に進む。これは、正規化頻度があまりに小さい単語については、評価式の生成の対象としないことを意味する。すべての単語を評価式の生成の対象としたいときには、所定の閾値を0とすればよい。
First, one word in the normalization frequency table stored in the normalization
Then, it is determined whether or not the normalization frequency of the corresponding word in at least one utterance is higher than a predetermined threshold (S402). When the normalization frequency is not higher than a predetermined threshold for all utterances (S402: NO), the processing returns to the processing of S402 without processing the word, and the frequency is predetermined for at least one utterance. If the word is higher than the threshold, the process proceeds to S404. This means that a word whose normalization frequency is too low is not subject to generation of an evaluation formula. If it is desired to set all words as targets for generating an evaluation expression, the predetermined threshold value may be set to zero.
次に、スコア格納部230のスコアテーブルのスコアで重み付けした正規化頻度の平均値を、重み付け平均頻度として、重み付け平均頻度計算部232により計算する(S403)。重み付け平均頻度mFは、以下の(式1)により計算される。
Next, the average value of the normalized frequencies weighted by the scores in the score table of the
ここで、式中のΣは、スコア付けしたサンプルの発話内容A、発話内容B、発話内容Cにわたってとるものとし、F(i)は、正規化頻度テーブルに格納されている発話内容iにおけるその単語の、正規化頻度であり、S(i)は、スコアテーブルに格納されている発話内容iのスコアである。 Here, Σ in the equation is taken over the utterance content A, utterance content B, and utterance content C of the scored sample, and F (i) is the utterance content i stored in the normalization frequency table. The normalization frequency of the word, and S (i) is the score of the utterance content i stored in the score table.
発話内容A、発話内容B、発話内容Cの各単語の重み付け平均頻度は、図16Aに示されるように、重み付け平均頻度テーブルに格納される。 The weighted average frequency of each word of the utterance content A, the utterance content B, and the utterance content C is stored in the weighted average frequency table as shown in FIG. 16A.
次に、スコア格納部230のスコアテーブルのスコアで重み付けした正規化頻度の標準偏差を、平均頻度標準偏差σFとして、平均頻度標準偏差計算部40により計算する。平均頻度標準偏差σFは、以下の(式2)により計算される。
Next, the standard deviation of the normalized frequency weighted by the score in the score table of the
発話内容A、発話内容B、発話内容Cの各単語の平均頻度標準偏差は、図17Aに示されるように、平均頻度標準偏差テーブルに格納される。 The average frequency standard deviation of each word of the utterance content A, the utterance content B, and the utterance content C is stored in the average frequency standard deviation table as shown in FIG. 17A.
次に、スコア格納部230のスコアテーブルのスコアで重み付けした出現位置の平均値を、重み付け平均出現位置として、重み付け平均出現位置計算部236により計算する(S405)。
Next, the average value of the appearance positions weighted by the scores in the score table of the
重み付け平均出現位置mPは、以下の(式3)により計算される。 Weighted average appearance position m P is calculated by the following equation (3).
ここで、P(i)は、相対出現位置テーブルに格納されている発話内容iにおけるその単語の相対出現位置である。
発話内容A、発話内容B、発話内容Cの各単語の相対出現位置は、図16Bに示されるように、相対出現位置テーブルに格納される。
Here, P (i) is the relative appearance position of the word in the utterance content i stored in the relative appearance position table.
The relative appearance positions of the words of the utterance contents A, the utterance contents B, and the utterance contents C are stored in the relative appearance position table as shown in FIG. 16B.
次に、スコア格納部230のスコアテーブルのスコアで重み付けした相対出現位置の標準偏差を、出現位置標準偏差σPとして、出現位置標準偏差計算部244により計算する(S406)。出現位置標準偏差σPは、以下の(式4)により計算される。
Next, the appearance position standard
発話内容A、発話内容B、発話内容Cの各単語の出現位置標準偏差は、図17Bに示されるように、出現位置標準偏差テーブルに格納される。 The appearance position standard deviation of each word of the utterance content A, the utterance content B, and the utterance content C is stored in the appearance position standard deviation table as shown in FIG. 17B.
次に、各単語の出現頻度スコア係数を、スコア係数計算部248により計算する(S407)。 Next, the appearance frequency score coefficient of each word is calculated by the score coefficient calculation unit 248 (S407).
以下、出現頻度スコア係数の計算の仕方を説明する。
先ず、発話内容i(i=A,B,C)における出現頻度正規分布評価式Ei,Fを、以下の(式5)とする。
Hereinafter, a method of calculating the appearance frequency score coefficient will be described.
First, the appearance frequency normal distribution evaluation expression E i, F in the utterance content i (i = A, B, C) is defined as the following (Expression 5).
次に、発話内容iにおける出現頻度正規分布評価式と、そのスコアの差を評価する評価関数Gi,Fを、以下の(式6)により定義する。 Next, an appearance frequency normal distribution evaluation formula in the utterance content i and an evaluation function Gi , F for evaluating the difference between the scores are defined by the following (formula 6).
ここで、Xは、実数を動く変数であり、評価関数Gi,Fは、Xの二次式となっていること留意する。 Note that X is a variable that moves a real number, and the evaluation functions Gi , F are quadratic expressions of X.
そして、評価関数GFを、評価関数Gi,Fの発話内容i(i=A,B,C)にわたる和として、以下の(式7)により定義する。 Then, the evaluation function G F is defined as the sum of the utterance contents i (i = A, B, C) of the evaluation functions G i, F by the following (Equation 7).
求めるのは、評価関数GFが最小値をとるXの値である。評価関数GFは、下に凸の二次式であり、初等数学で知られているように、Xが、以下の(式8)のときに、最小値をとる。本実施形態では、(式8)の最小値をとるXの値を、各発話内容iにわたり、スコアの差を最小にするものとして、出現頻度スコア係数CFとする。 Finding is given, the evaluation function G F is the value of X which takes the minimum value. The evaluation function G F is a quadratic convex downward, as is known in elementary mathematics, X is, when the following Equation (8), takes the minimum value. In the present embodiment, the value of X that takes the minimum value of (Equation 8) is defined as the appearance frequency score coefficient C F that minimizes the difference in scores over the utterance contents i.
各単語の出現頻度スコア係数は、図18Aに示されるように、出現頻度スコア係数テーブルに格納される。 The appearance frequency score coefficient of each word is stored in the appearance frequency score coefficient table as shown in FIG. 18A.
次に、各単語の出現位置スコア係数を、スコア係数計算部248により計算する(S408)。 Next, an appearance position score coefficient of each word is calculated by the score coefficient calculation unit 248 (S408).
以下、出現位置スコア係数の計算の仕方を説明する。出現位置のスコア係数の計算の仕方は、上記の出現頻度スコア係数の求め方と同様である。 Hereinafter, a method of calculating the appearance position score coefficient will be described. The method of calculating the score coefficient of the appearance position is the same as the method of obtaining the appearance frequency score coefficient.
先ず、発話内容i(i=A,B,C)における出現位置正規分布評価式Ei,Pを、以下の(式9)とする。 First, the appearance position normal distribution evaluation expression E i, P in the utterance content i (i = A, B, C) is defined as the following (Expression 9).
次に、発話内容iにおける出現位置正規分布評価式と、そのスコアの差を評価する評価関数Gi,Pを、以下の(式10)により定義する。 Next, an appearance position normal distribution evaluation formula in the utterance content i and an evaluation function G i, P for evaluating the difference between the scores are defined by the following (formula 10).
ここで、Xは、実数を動く変数であり、評価関数Gi,Pは、Xの二次式となっていること留意する。 Note that X is a variable that moves a real number, and the evaluation function Gi , P is a quadratic expression of X.
そして、評価関数GPを、評価関数Gi,Pの発話内容i(i=A,B,C)にわたる和として、以下の(式11)により定義する。 The evaluation function GP is defined as the sum of the utterance contents i (i = A, B, C) of the evaluation functions G i, P by the following (Equation 11).
求めるのは、評価関数GPの最小値である。評価関数GPは、下に凸の二次式であり、初等数学で知られているように、Xが、以下の(式12)のときに、最小値をとる。本実施形態では、(式12)の最小値をとるXの値を、各発話内容iにわたり、スコアの差を最小にするものとして、出現位置スコア係数CFとする。 What is calculated is the minimum value of the evaluation function GP . The evaluation function GP is a quadratic expression convex downward, and, as is known in elementary mathematics, takes a minimum value when X is the following (Expression 12). In the present embodiment, the value of X that takes the minimum value of (Equation 12) is assumed to be the appearance position score coefficient C F that minimizes the difference in score over each utterance content i.
各単語の出現位置スコア係数は、図18Bに示されるように、出現位置スコア係数テーブルに格納される。 The appearance position score coefficient of each word is stored in the appearance position score coefficient table as shown in FIG. 18B.
これを、全ての発話内容i(i=A,B,C)の単語にわたって行ない(S409)、出現頻度スコア係数、出現位置スコア係数を求める。 This is performed over words of all utterance contents i (i = A, B, C) (S409), and an appearance frequency score coefficient and an appearance position score coefficient are obtained.
次に、図19を用いて生成された評価式により、発話内容Xを評価する処理について説明する。
図19は、生成された評価式により、発話内容Xを評価する処理を示すフローチャートである。
Next, processing for evaluating the utterance content X using the evaluation formula generated with reference to FIG. 19 will be described.
FIG. 19 is a flowchart illustrating a process of evaluating the utterance content X using the generated evaluation formula.
ここで、発話内容Xに対する評価値(スコア)をV(X)で表すこととする。
先ず、V(X)を初期化するために、0を代入する(S500)。
そして、発話内容Xの単語を一つ選択する(S501)。
Here, the evaluation value (score) for the utterance content X is represented by V (X).
First, 0 is substituted to initialize V (X) (S500).
Then, one word of the utterance content X is selected (S501).
次に、選択した単語の出現頻度スコアが、図18Aに示した出現頻度スコア係数テーブルにあるか否かを検索し(S502)、出現頻度スコア係数テーブルにあるときには(S502:YES)、選択した単語の出現頻度の評価式のスコアを計算する(S503)。 Next, it is searched whether or not the appearance frequency score of the selected word is in the appearance frequency score coefficient table shown in FIG. 18A (S502), and when it is in the appearance frequency score coefficient table (S502: YES), it is selected. The score of the evaluation formula of the word appearance frequency is calculated (S503).
以下、出現頻度の評価式のスコアの計算の仕方について説明する。
ここで、(式8)により求められた出現頻度スコア係数CFは、各単語により異なったものになるので、ある単語wに対応した出現頻度スコア係数CFを、CF(w)と記述するものとする。同様に、(式1)により求められた重み付け平均頻度mFで、ある単語wに対応する重み付け平均頻度を、mF(w)とし、(式2)により求められた平均頻度標準偏差σFで、ある単語wに対応する平均頻度標準偏差を、mF(w)と記述するものとする。また、ある単語wに対応する正規化頻度を、F(w)と記述する。ここでは、図8に示したフローチャートの処理により、評価発話内容Xの単語に対して、無意味単語除去後の正規化頻度が求まっているものと仮定する。
Hereinafter, a method of calculating the score of the appearance frequency evaluation formula will be described.
Here, since the appearance frequency score coefficient C F obtained by (Equation 8) is different for each word, the appearance frequency score coefficient C F corresponding to a certain word w is described as C F (w). It shall be. Similarly, with the weighted average frequency m F obtained by (Equation 1), the weighted average frequency corresponding to a certain word w is m F (w), and the average frequency standard deviation σ F obtained by (Equation 2) is used. The average frequency standard deviation corresponding to a certain word w is described as m F (w). A normalization frequency corresponding to a certain word w is described as F (w). Here, it is assumed that the normalization frequency after removal of meaningless words is obtained for the words of the evaluation utterance content X by the processing of the flowchart shown in FIG.
このときに、ある単語wの出現頻度の評価式VF(w)は、以下の(式13)で表される。 At this time, the evaluation formula V F (w) of the appearance frequency of a certain word w is expressed by the following (formula 13).
次に、選択した単語の出現位置スコアが、図18Bに示した出現位置スコア係数テーブルにあるか否かを検索し(S504)、出現位置スコア係数テーブルにあるときには(S502:YES)、選択した単語の出現位置の評価式のスコアを計算する(S503)。 Next, it is searched whether or not the appearance position score of the selected word is in the appearance position score coefficient table shown in FIG. 18B (S504), and when it is in the appearance position score coefficient table (S502: YES), it is selected. The score of the evaluation formula of the word appearance position is calculated (S503).
以下、出現位置の評価式のスコアの計算の仕方について説明する。出現頻度の評価式の場合と同様に、(式12)により求められた出現位置スコア係数CPは、各単語により異なったものになるので、ある単語wに対応した出現位置スコア係数CPを、CP(w)と記述するものとする。同様に、(式3)により求められた重み付け出現位置mPで、ある単語wに対応する重み付け出現位置を、mP(w)とし、(式4)により求められた出現位置標準偏差σPで、ある単語wに対応する出現位置標準偏差を、mP(w)と記述するものとする。また、ある単語wに対応する相対出現位置を、P(w)と記述する。ここでは、図8のフローチャートに示した処理により、評価発話内容Xの単語に対して、相対位置が求まっているものと仮定する。 Hereinafter, a method of calculating the score of the evaluation formula for the appearance position will be described. As with the frequency of the evaluation formula, the appearance position score coefficients C P obtained by equation (12), since to differ by each word, the occurrence position score coefficients C P corresponding to a word w , C P (w). Similarly, weighting appearance position m P obtained by the (Equation 3), the weighting appearance position corresponding to a word w, and m P (w), the occurrence position standard deviation sigma P obtained by (Equation 4) The appearance position standard deviation corresponding to a certain word w is described as m P (w). A relative appearance position corresponding to a certain word w is described as P (w). Here, it is assumed that the relative position is obtained for the word of the evaluation utterance content X by the processing shown in the flowchart of FIG.
このときに、ある単語wの出現位置の評価式VP(w)は、以下の(式14)で表される。 At this time, the evaluation expression V P (w) of the appearance position of a certain word w is expressed by the following (Expression 14).
そして、S503の出現頻度の評価式のスコアと、S504の出現位置の評価式のスコアを、V(X)に足しこむ。
そして、S501ないしS506の処理を、全ての単語にわたって行う(S507)。
V(X)は、最終的に、以下の(式15)により求められることになる。
Then, the score of the evaluation formula for the appearance frequency in S503 and the score of the evaluation formula for the appearance position in S504 are added to V (X).
Then, the processing from S501 to S506 is performed for all words (S507).
V (X) is finally obtained by the following (Formula 15).
ここで、単語wは、評価発話内容Xの全ての単語にわたるものとする。ただし、出現頻度スコア係数テーブルにない単語の出現頻度スコアと、出現位置スコア係数テーブルにない単語の出現位置スコアは除かれる。 Here, the word w covers all the words in the evaluation utterance content X. However, the appearance frequency score of a word not in the appearance frequency score coefficient table and the appearance position score of a word not in the appearance position score coefficient table are excluded.
上記のように、本実施形態の発話内容評価システムでは、スコア付けされた複数の発話のサンプルを用意し、それとの単語単位の出現頻度と、相対位置の関連を評価する評価式を生成し、それに基づいて、発話内容を評価する。したがって、経験のあるベテランの発話者の発話のサンプルのスコアを高いものにして、それとの比較により、あまり経験のない発話者による発話を自動的に、客観的に評価することができ、その評価値を発話者の発話技能の進歩の基準とすることもできる。 As described above, the utterance content evaluation system of the present embodiment prepares a plurality of scored utterance samples, generates an evaluation expression for evaluating the relationship between the appearance frequency of each word unit and the relative position thereof, Based on this, the utterance content is evaluated. Therefore, it is possible to automatically and objectively evaluate utterances by speakers with little experience by comparing the scores of utterances of experienced veteran speakers with high scores. The value can also be used as a basis for the progress of the speaker's speech skills.
101…音声認識部
102…評価基準生成部
103…発話内容評価部
104…評価結果格納部
105…過去発話内容蓄積部
106…発話内容
107…生成評価基準
108…過去発話内容
109…過去発話スコア
201…発話内容格納部
203…総文字数カウント部
204…総文字数情報
205…総文字数格納部
206…総文字数データ
208…単語リスト抽出部
209…単語リスト
210…スコア係数格納部
211…単語頻度カウント部
212…頻度リスト
213…単語・頻度リスト格納部
214…単語・頻度リスト
215…正規化頻度計算部
216…ユーザ定義カテゴリ情報
217…ユーザ定義カテゴリテーブル格納部
218…正規化頻度データ
219…無意味単語除去部
220…無意味単語リスト
221…無意味単語テーブル格納部
222…無意味単語除去済正規化頻度情報
223…正規化頻度格納部
224…相対位置計算部
225…スコア係数情報
226…無意味単語除去済正規化頻度リスト
227…相対位置情報
228…相対位置格納部
229…相対位置情報リスト
230…スコア格納部
232…重み付け平均頻度計算部
233…重み付け平均頻度情報
234…重み付け平均頻度格納部
235…重み付け平均頻度情報リスト
236…重み付け平均出現位置計算部
237…重み付け平均出現位置情報
238…重み付け平均出現位置格納部
239…重み付け平均出現位置情報リスト
240…平均頻度標準偏差計算部
241…重み付け平均頻度標準偏差情報
242…平均頻度標準偏差格納部
243…平均頻度標準偏差情報リスト
244…出現位置標準偏差計算部
245…重み付け出現位置標準偏差情報
246…出現位置標準偏差格納部
247…重み付け出現位置標準偏差情報リスト
248…スコア係数計算部
801…発話内容Aの抽出単語リスト
802…発話内容Aの単語出現頻度
901…発話内容Bの抽出単語リスト
902…発話内容Bの単語出現頻度
1001…発話内容Cの抽出単語リスト
1002…発話内容Cの単語出現頻度
1101…商品名カテゴリ単語リスト
1102…推奨単語カテゴリ単語リスト
1103…ノイズカテゴリ単語リスト
1201…無意味単語リスト
1301…発話リスト
1302…総文字数リスト
1401…発話内容Aの無意味単語除去後単語リスト
1402…発話内容Aの正規化頻度リスト
1501…発話内容Bの無意味単語除去後単語リスト
1502…発話内容Bの正規化頻度リスト
1601…発話内容Cの無意味単語除去後単語リスト
1602…発話内容Cの正規化頻度リスト
1701…発話リスト
1702…スコアリスト
1801…無意味、低頻度単語除去度単語リスト
1802…重み付け平均頻度リスト
1901…無意味、低頻度単語除去度単語リスト
1902…重み付け平均頻度標準偏差リスト
2001…無意味単語除去後の発話内容Aの単語リスト
2002…発話内容Aの相対出現位置テーブルである。
2101…無意味単語除去後の発話内容Bの単語リスト
2102…発話内容Bの相対出現位置テーブルである。
2201…無意味単語除去後の発話内容Cの単語リスト
2202…発話内容Cの相対出現位置テーブルである。
2301…無意味、低頻度単語除去後の単語リスト
2301…スコアで重み付けした平均相対位置
2401…無意味、低頻度単語除去後の単語リスト
2402 …スコアで重み付けした平均相対位置の標準偏差
2801…無意味、低頻度単語除去後の単語リスト
2802…出現頻度スコア係数
2901…無意味、低頻度単語除去後の単語リスト
2902…出現位置スコア係数
DESCRIPTION OF
2101 ...
2201 ...
2301 ...
Claims (4)
前記発話内容のサンプルの各々の単語の出現頻度と、前記発話内容のサンプルの各々の単語の相対出現位置とを計算し、
各々の単語に対して、前記発話内容のスコアにより重み付けられた出現頻度の重み付け平均頻度と、前記発話内容のスコアにより重み付けられた出現頻度の平均頻度標準偏差とを計算し、
各々の単語に対して、前記発話内容のスコアにより重み付けられた相対出現位置の重み付け平均出現位置と、前記発話内容のスコアにより重み付けられた相対出現位置の出現位置標準偏差とを計算し、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現頻度スコア係数として計算し、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け相対出現位置と、前記出現位置標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算し、
前記評価する発話内容の各々の単語に対して、前記出現頻度スコア係数をかけた前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式を、評価時の出現頻度の評価式として、その単語に対する出現頻度の評価値を求め、
前記評価する発話内容の各々の単語に対して、前記出現位置スコア係数をかけた前記重み付け平均出現位置と、前記出現位置標準偏差による正規分布の評価式を、評価時の出現位置の評価式として、その単語に対する出現位置の評価値を求め、
前記評価する発話内容の各々の単語にわたり、前記出現頻度の評価値と、前記出現位置の評価値の総和をとって、前記評価する発話内容の評価値とすることを特徴とする発話内容評価システム。 An utterance content evaluation system for evaluating utterance content based on one or more utterance content samples each scored,
Calculating the appearance frequency of each word in the utterance content sample and the relative appearance position of each word in the utterance content sample;
For each word, calculate a weighted average frequency of the appearance frequency weighted by the score of the utterance content, and an average frequency standard deviation of the appearance frequency weighted by the score of the utterance content,
For each word, calculate a weighted average appearance position of the relative appearance position weighted by the score of the utterance content, and an appearance position standard deviation of the relative appearance position weighted by the score of the utterance content,
For each word, the appearance frequency score coefficient is a value that minimizes the difference between the weighted average frequency, the normal distribution evaluation formula based on the average frequency standard deviation, and the score of the sample over all utterance content samples. Calculate as
For each word, the appearance position score is a value that minimizes the difference between the weighted relative appearance position, the normal distribution evaluation formula based on the appearance position standard deviation, and the score of the sample over all utterance content samples. Calculated as a coefficient,
For each word of the utterance content to be evaluated, the weighted average frequency multiplied by the appearance frequency score coefficient, and the normal distribution evaluation formula by the average frequency standard deviation, as the evaluation formula of the appearance frequency at the time of evaluation, Find the evaluation value of the appearance frequency for the word,
For each word of the utterance content to be evaluated, the weighted average appearance position multiplied by the appearance position score coefficient and the normal distribution evaluation formula by the appearance position standard deviation are used as the evaluation expression of the appearance position at the time of evaluation. , Find the evaluation value of the appearance position for the word,
An utterance content evaluation system characterized by taking the sum of the evaluation value of the appearance frequency and the evaluation value of the appearance position over each word of the utterance content to be evaluated to obtain the evaluation value of the utterance content to be evaluated .
前記発話内容のサンプルの各々の単語の出現頻度とを計算するにあたり、前記ユーザ定義カテゴリテーブルにより同一のカテゴリと定義されている複数の単語に対しては、一つの単語としてまとめて頻度を計算することを特徴とする請求項1記載の発話内容評価システム。 Holds a user-defined category table that defines words in the same category,
When calculating the appearance frequency of each word in the utterance content sample, for a plurality of words defined as the same category by the user-defined category table, the frequency is calculated as a single word. The utterance content evaluation system according to claim 1.
前記発話内容のサンプルの各々の単語の出現頻度と、前記発話内容のサンプルの各々の単語の相対出現位置とを計算するステップと、
各々の単語に対して、前記発話内容のスコアにより重み付けられた出現頻度の重み付け平均頻度と、前記発話内容のスコアにより重み付けられた出現頻度の平均頻度標準偏差とを計算するステップと、
各々の単語に対して、前記発話内容のスコアにより重み付けられた相対出現位置の重み付け平均出現位置と、前記発話内容のスコアにより重み付けられた相対出現位置の出現位置標準偏差とを計算するステップと、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現頻度スコア係数として計算するステップと、
各々の単語に対して、全ての発話内容のサンプルにわたり、前記重み付け相対出現位置と、前記出現位置標準偏差による正規分布の評価式と前記サンプルのスコアの差分を最小にする値を、出現位置スコア係数として計算するステップと、
前記評価する発話内容の各々の単語に対して、前記出現頻度スコア係数をかけた前記重み付け平均頻度と、前記平均頻度標準偏差による正規分布の評価式を、評価時の出現頻度の評価式として、その単語に対する出現頻度の評価値を求めるステップと、
前記評価する発話内容の各々の単語に対して、前記出現位置スコア係数をかけた前記重み付け平均出現位置と、前記出現位置標準偏差による正規分布の評価式を、評価時の出現位置の評価式として、その単語に対する出現位置の評価値を求めるステップと、
前記評価する発話内容の各々の単語にわたり、前記出現頻度の評価値と、前記出現位置の評価値の総和をとって、前記評価する発話内容の評価値とするステップとを有することを特徴とする発話内容評価方法。 An utterance content evaluation method for evaluating utterance content based on one or more utterance content samples each scored,
Calculating the appearance frequency of each word in the utterance content sample and the relative appearance position of each word in the utterance content sample;
For each word, calculating a weighted average frequency of appearance frequency weighted by the score of the utterance content and an average frequency standard deviation of appearance frequency weighted by the score of the utterance content;
For each word, calculating a weighted average appearance position of relative appearance weights weighted by the utterance content score, and an appearance position standard deviation of relative appearance positions weighted by the utterance content score;
For each word, the appearance frequency score coefficient is a value that minimizes the difference between the weighted average frequency, the normal distribution evaluation formula based on the average frequency standard deviation, and the score of the sample over all utterance content samples. Step to calculate as
For each word, the appearance position score is a value that minimizes the difference between the weighted relative appearance position, the normal distribution evaluation formula based on the appearance position standard deviation, and the score of the sample over all utterance content samples. Calculating as a coefficient;
For each word of the utterance content to be evaluated, the weighted average frequency multiplied by the appearance frequency score coefficient, and the normal distribution evaluation formula by the average frequency standard deviation, as the evaluation formula of the appearance frequency at the time of evaluation, Calculating an appearance frequency evaluation value for the word;
For each word of the utterance content to be evaluated, the weighted average appearance position multiplied by the appearance position score coefficient and the normal distribution evaluation formula by the appearance position standard deviation are used as the evaluation expression of the appearance position at the time of evaluation. , Obtaining an evaluation value of the appearance position for the word;
A step of taking the sum of the evaluation value of the appearance frequency and the evaluation value of the appearance position over each word of the utterance content to be evaluated to obtain the evaluation value of the utterance content to be evaluated. Utterance content evaluation method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015177770A JP2017054307A (en) | 2015-09-09 | 2015-09-09 | Utterance content evaluation system and utterance content evaluation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015177770A JP2017054307A (en) | 2015-09-09 | 2015-09-09 | Utterance content evaluation system and utterance content evaluation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017054307A true JP2017054307A (en) | 2017-03-16 |
Family
ID=58320775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015177770A Pending JP2017054307A (en) | 2015-09-09 | 2015-09-09 | Utterance content evaluation system and utterance content evaluation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017054307A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019215808A (en) * | 2018-06-14 | 2019-12-19 | Zホールディングス株式会社 | Evaluation device, evaluation method, and evaluation program |
-
2015
- 2015-09-09 JP JP2015177770A patent/JP2017054307A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019215808A (en) * | 2018-06-14 | 2019-12-19 | Zホールディングス株式会社 | Evaluation device, evaluation method, and evaluation program |
JP7057229B2 (en) | 2018-06-14 | 2022-04-19 | ヤフー株式会社 | Evaluation device, evaluation method and evaluation program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11657234B2 (en) | Computer-based interlocutor understanding using classifying conversation segments | |
CN107452385A (en) | A kind of voice-based data evaluation method and device | |
CN111738589B (en) | Big data item workload assessment method, device and equipment based on content recommendation | |
CN111507573A (en) | Business staff assessment method, system, device and storage medium | |
CN110910215B (en) | Product recommendation method, device, equipment and computer readable storage medium | |
KR20180061458A (en) | Method and system for analyzing evaluation information of industry based on sturectured and unstructured data convergence | |
CN114880581B (en) | User data processing method, storage medium and electronic device | |
CN114783421A (en) | Intelligent recommendation method and device, equipment, medium | |
CN113065742A (en) | Credit evaluation method, system, storage medium and electronic equipment for small and micro enterprises | |
JP2020135434A (en) | Enterprise information processing device, enterprise event prediction method and prediction program | |
CN115968478A (en) | Machine learning feature recommendation | |
JP2017054307A (en) | Utterance content evaluation system and utterance content evaluation method | |
CN119129646A (en) | Information interaction method, device, electronic device and storage medium | |
CN115146890A (en) | Enterprise operation risk warning method and device, computer equipment and storage medium | |
CN117670367A (en) | Complaint work order processing method, complaint work order processing device, terminal equipment and storage medium | |
JP7092695B2 (en) | Property search support system and property search support method | |
CN110837843A (en) | Information classification method and device, computer equipment and storage medium | |
JP6808599B2 (en) | Classification support device, classification support method and program | |
JP6968662B2 (en) | Information provision system, information provision device, information analysis device, and information provision method | |
CN114078015A (en) | Prediction method, device and computing device for main factors affecting user satisfaction | |
JP7479534B2 (en) | Information processing device, estimation device, analysis device, information processing method, and computer program | |
US20240135249A1 (en) | Learning device, learning method, and program | |
CN115062701B (en) | Data processing method, device and electronic equipment | |
CN115550259B (en) | Flow distribution method based on white list and related equipment | |
JP2019082964A (en) | Information providing system, management device, information analysis device, and management method |