JP2019095968A - Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program - Google Patents

Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program Download PDF

Info

Publication number
JP2019095968A
JP2019095968A JP2017223599A JP2017223599A JP2019095968A JP 2019095968 A JP2019095968 A JP 2019095968A JP 2017223599 A JP2017223599 A JP 2017223599A JP 2017223599 A JP2017223599 A JP 2017223599A JP 2019095968 A JP2019095968 A JP 2019095968A
Authority
JP
Japan
Prior art keywords
impression
estimation model
weight
evaluator
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017223599A
Other languages
Japanese (ja)
Other versions
JP6856503B2 (en
Inventor
歩相名 神山
Hosona Kamiyama
歩相名 神山
哲 小橋川
Satoru Kobashigawa
哲 小橋川
厚志 安藤
Atsushi Ando
厚志 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017223599A priority Critical patent/JP6856503B2/en
Publication of JP2019095968A publication Critical patent/JP2019095968A/en
Application granted granted Critical
Publication of JP6856503B2 publication Critical patent/JP6856503B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide a method or the like which stably estimates an average impression value.SOLUTION: A learning data storage unit 14 stores learning data, a correct answer value of an impression value, and an evaluator in association with each other. An evaluator tendency data storage unit 15 stores the evaluator and an evaluator tendency in association with each other. Impression estimation units 11-1 to 11-N estimate posterior probability of an impression value using an impression estimation model, which estimates posterior probability of an impression value from learning data, for each group obtained by classifying the evaluator tendency. A weight estimation unit 12 estimates weight using a weight estimation model which estimates weight from the evaluator tendency. A weight estimation model update unit 131 updates a weight estimation model from a difference between posterior probability of an impression value weighted by the weight and a correct answer value of an impression value. An impression estimation model update unit 132 updates an impression estimation model with the weight as learning weight from posterior probability of an impression value.SELECTED DRAWING: Figure 1

Description

この発明は、データの印象を自動的に推定する技術に関する。   The present invention relates to a technique for automatically estimating an impression of data.

音声や画像等のデータの印象を自動推定する技術が必要とされている。例えば、音楽や画像の印象(明るさ、軽さ等)が推定できると、データの印象値を自動で付与し、データの検索に利用できるようになる。他にも、コールセンターのオペレータの印象(自然さ、好感度等)を推定できると、オペレータの応対品質の自動評価ができるようになる。   There is a need for a technique for automatically estimating the impression of data such as voice and images. For example, when the impression (brightness, lightness, etc.) of music or an image can be estimated, an impression value of the data can be automatically given and used for data search. In addition, if it is possible to estimate the impression (naturalness, affinity, etc.) of the call center operator, it will be possible to automatically evaluate the operator's response quality.

機械学習を用いたデータの印象の自動推定には、予め印象値を付与したデータを人手で作成し、データと印象値とを紐付けた機械学習モデルを学習することで実現できる。このとき、人手で付与した印象値は、人によって評価の基準が異なるため、機械学習モデルを学習する際には、例えば下記のように学習データを整備することが必要となる(非特許文献1参照)。
1.印象値(数段階評価)を人手で複数名にてラベル付けする。
2.必要に応じて、数段階の印象値を2〜3段階のラベルに丸める。
3.人によってブレのあるデータを正解データから除外するために、複数名で一致したラベルのみを選別する(3名以上が付与している場合は、多数決によるラベルの選定でもよい)。
Automatic estimation of an impression of data using machine learning can be realized by manually creating data to which an impression value is given in advance and learning a machine learning model in which the data and the impression value are linked. At this time, for the impression value given manually, the evaluation criteria differ depending on the person, so when learning a machine learning model, for example, it is necessary to prepare learning data as described below (Non-Patent Document 1) reference).
1. Label the impression values (several evaluations) manually with multiple people.
2. If necessary, round several levels of impression values into two or three levels of labels.
3. In order to exclude data which is blurred by human beings from correct data, only labels which are matched by a plurality of persons are selected (if three or more persons are given, selection of labels by majority rule may be used).

安定した印象値を推定するモデルを学習するためには、安定して印象値を付与できる評価者(例えば、異なる日に同じデータを聴取したときに、同じ印象値を付与できる評価者)を選定し、かつ、印象値を安定させながら付与するためには、休憩を挟みながら印象値の付与作業を行うことが必要である(非特許文献2参照)。   To learn a model that estimates stable impression values, select an assessor who can assign impression values stably (for example, an assessor who can assign the same impression value when listening to the same data on different days) Also, in order to apply the impression value while stabilizing the impression value, it is necessary to perform the impression value assignment work while taking a break (see Non-Patent Document 2).

酒造正樹他、“情動・感情判別のための自然発話データベースの構築”、情報処理学会論文誌、vol. 52、No. 3、pp. 1185-1194、2011年Masaki Suzaka et al., "Construction of a natural speech database for emotion / emotion discrimination", Transactions of Information Processing Society of Japan, vol. 52, No. 3, pp. 1185-1194, 2011 籠宮隆之他、“印象評定データの概要”、[online]、[平成29年11月1日検索]、インターネット<URL: http://pj.ninjal.ac.jp/corpus_center/csj/manu-f/impression.pdf>Takamiya Takamiya et al., “Overview of Impression Evaluation Data”, [online], [Search on November 1, 2017], Internet <URL: http://pj.ninjal.ac.jp/corpus_center/csj/manu- f / impression.pdf>

安定した印象推定モデルを学習するためには、安定した評価者の選定、休憩を挟みながらの長期間の評価、およびブレのあるデータの除外等を行う必要があるため、非常にコストが高くなる。また、評価者をある程度選定してしまうと、その評価者数名の傾向に特化した印象推定モデルが学習されてしまい、推定された印象値が利用者の平均的な感覚の印象値とは異なるものとなる場合がある。   In order to learn a stable impression estimation model, it is necessary to select a stable evaluator, perform long-term evaluation with a break, and exclude blurry data, so the cost is extremely high. . Also, if an evaluator is selected to a certain extent, an impression estimation model specialized in the tendency of several evaluators is learned, and the estimated impression value is the impression value of the average sense of the user It may be different.

この発明の目的は、上記のような点に鑑みて、評価者の選定やデータの除外を行わずに、評価者の印象評価の傾向を加味しつつ、平均的な印象値を安定的に推定することができる印象推定技術を実現することである。   The object of the present invention is to stably estimate an average impression value while taking into consideration the tendency of the evaluator's impression evaluation without selecting the evaluator and excluding the data in view of the above-described points. It is to realize the impression estimation technology that can be done.

上記の課題を解決するために、この発明の第一の態様の印象推定モデル学習装置は、学習データとその学習データに付与された印象値の正解値とその印象値の正解値を与えた評価者とを関連付けた学習データベースを記憶する学習データ記憶部と、評価者とその評価者における印象値毎の出現確率を表す評価者傾向とを関連付けた評価者傾向データベースを記憶する評価者傾向データ記憶部と、学習データから印象値の事後確率を推定する印象推定モデルを記憶する印象推定モデル記憶部と、評価者傾向から重みを推定する重み推定モデルを記憶する重み推定モデル記憶部と、評価者傾向を分類したグループ毎に印象推定モデルを用いて学習データから印象値の事後確率を推定する印象推定部と、重み推定モデルを用いて学習データに関連付けられた評価者傾向から重みを推定する重み推定部と、重みにより重み付けした印象値の事後確率と学習データに付与された印象値の正解値との差分から重み推定モデルを更新する重み推定モデル更新部と、印象値の事後確率から重みを学習重みとして印象推定モデルを更新する印象推定モデル更新部と、を含む。   In order to solve the above problems, the impression estimation model learning device according to the first aspect of the present invention is an evaluation in which the learning data and the correct value of the impression value given to the learning data and the correct value of the impression value are given. Evaluator tendency data storage that stores an evaluator tendency database that associates a learning data storage unit that stores a learning database that associates a person with a person, and an evaluator tendency that represents an appearance probability of each evaluator with an evaluator An impression estimation model storage unit for storing an impression estimation model for estimating a posterior probability of an impression value from learning data; a weight estimation model storage unit for storing a weight estimation model for estimating weights from an evaluator tendency; An impression estimation unit that estimates a posteriori probability of an impression value from learning data using an impression estimation model for each of the groups into which the tendency has been classified, and is associated with the learning data using a weight estimation model Weight estimation model update that updates the weight estimation model from the difference between the weight estimation unit that estimates the weight from the evaluated evaluator tendency, and the posterior probability of the impression value weighted by the weight and the correct value of the impression value given to the learning data And an impression estimation model updating unit for updating an impression estimation model using learning weights from the posterior probability of impression values.

上記の課題を解決するために、この発明の第二の態様の印象推定装置は、第一の態様の印象推定モデル学習装置により学習した印象推定モデルを記憶する印象推定モデル記憶部と、第一の態様の印象推定モデル学習装置により学習した重み推定モデルを記憶する重み推定モデル記憶部と、評価者における印象値毎の出現確率を表す評価者傾向を分類したグループ毎に印象推定モデルを用いて入力データから印象値の事後確率を推定する印象推定部と、重み推定モデルを用いて入力された評価者傾向から重みを推定する重み推定部と、重みにより重み付けした印象値の事後確率である統合事後確率に基づいて入力データの印象値を求める統合値推定部と、を含む。   In order to solve the above problems, an impression estimating apparatus according to a second aspect of the present invention includes an impression estimating model storage unit that stores an impression estimating model learned by the impression estimating model learning apparatus according to the first aspect; A weight estimation model storage unit for storing a weight estimation model learned by the impression estimation model learning device of the aspect, and an impression estimation model for each group into which an evaluator tendency indicating an appearance probability for each impression value in the evaluator is classified An impression estimation unit that estimates a posterior probability of an impression value from input data, a weight estimation unit that estimates a weight from an evaluator tendency input using a weight estimation model, and integration that is a posterior probability of an impression value weighted by a weight And an integrated value estimation unit for obtaining an impression value of input data based on the posterior probability.

この発明の印象推定技術によれば、学習データの全データについて全評価者が印象値を付与する必要が無いため、評価者の選定や長期間の拘束が不要となり、かつ、ラベルの選定が不要となるため、学習データの作成コストを削減することができる。これにより、人によって基準が異なる印象値について、平均的な印象値を安定的に推定することが可能となる。すなわち、この発明の印象推定技術によれば、評価者の選定やデータの除外を行わずに、評価者の印象評価の傾向を加味しつつ、平均的な印象値を安定的に推定することができる。   According to the impression estimation technique of the present invention, it is not necessary for all the evaluators to give an impression value to all the data of the learning data, so selection of evaluators and long-term restraint is not necessary, and selection of labels is unnecessary. Thus, the cost of creating learning data can be reduced. This makes it possible to stably estimate an average impression value for impression values that differ according to a person. That is, according to the impression estimation technology of the present invention, it is possible to stably estimate the average impression value while taking into consideration the tendency of the evaluator's impression evaluation without selecting the evaluator or excluding the data. it can.

図1は、印象推定モデル学習装置の機能構成を例示する図である。FIG. 1 is a diagram illustrating a functional configuration of an impression estimation model learning device. 図2は、印象推定モデル学習方法の処理手続きを例示する図である。FIG. 2 is a diagram illustrating the processing procedure of the impression estimation model learning method. 図3は、印象推定装置の機能構成を例示する図である。FIG. 3 is a diagram illustrating a functional configuration of the impression estimating device. 図4は、印象推定方法の処理手続きを例示する図である。FIG. 4 is a diagram illustrating the processing procedure of the impression estimation method.

この発明のポイントは、以下の通りである。まず、複数の印象推定モデルにより評価者による印象値のブレを傾向毎のグループに自動分類する。次に、印象値の推定結果を自動分類した結果に、評価者による印象値のブレの傾向に応じた重みを与え、その結果を統合して最終的な印象値を推定する。このようにして、印象値の推定結果に対して、評価者による評価の平均的なブレを与えて、平均的な印象値を推定する。   The points of the present invention are as follows. First, the blur of the impression value by the evaluator is automatically classified into a group for each tendency by a plurality of impression estimation models. Next, weights are assigned according to the tendency of blur of the impression value by the evaluator to the result of automatically classifying the estimation result of the impression value, and the result is integrated to estimate the final impression value. In this way, an average blur of evaluation by the evaluator is given to the estimation result of the impression value to estimate the average impression value.

以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。   Hereinafter, embodiments of the present invention will be described in detail. In the drawings, components having the same functions are denoted by the same reference numerals and redundant description will be omitted.

この発明の実施形態は、予め用意した学習データと評価者傾向データとを用いて印象推定モデルと重み推定モデルとを学習する印象推定モデル学習装置と、学習済みの印象推定モデルと重み推定モデルとを用いて入力されたデータの印象値を推定する印象推定装置とに大きく分かれる。以下、実施形態の印象推定モデル学習装置と印象推定装置の機能構成と処理手続きの詳細を順に説明する。   In the embodiment of the present invention, an impression estimation model learning device for learning an impression estimation model and a weight estimation model using learning data and evaluator tendency data prepared in advance, a learned impression estimation model and a weight estimation model Can be roughly divided into an impression estimation device that estimates an impression value of input data using. Hereinafter, the functional configuration of the impression estimation model learning device and the impression estimation device of the embodiment and the details of the processing procedure will be described in order.

なお、文中で使用する記号「^」等は、本来直後の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直前に記載する。数式中においてはこれらの記号は本来の位置、すなわち文字の真上に記述している。   The symbol “^” or the like used in the text should be written directly above the character immediately after it, but it is written immediately before the character due to the restriction of the text notation. In mathematical expressions, these symbols are described at their original positions, that is, directly above the characters.

<印象推定モデル学習装置>
実施形態の印象推定モデル学習装置1は、図1に示すように、N(≧2)個の印象推定部11−n(n=1, 2, …, N)と、重み推定部12と、モデル学習部13と、学習データ記憶部14と、評価者傾向データ記憶部15と、重み推定モデル記憶部16とを備える。各印象推定部11−nは、印象推定モデル記憶部111−nを備える。モデル学習部13は、重み推定モデル更新部131と、印象推定モデル更新部132とを備える。この印象推定モデル学習装置1が、図2に例示する各ステップの処理を行うことにより実施形態の印象推定モデル学習方法が実現される。
<Impression Estimation Model Learning Device>
As shown in FIG. 1, the impression estimation model learning device 1 according to the embodiment includes N (≧ 2) impression estimation units 11-n (n = 1, 2,..., N), a weight estimation unit 12, A model learning unit 13, a learning data storage unit 14, an evaluator trend data storage unit 15, and a weight estimation model storage unit 16 are provided. Each impression estimation unit 11-n includes an impression estimation model storage unit 111-n. The model learning unit 13 includes a weight estimation model updating unit 131 and an impression estimation model updating unit 132. The impression estimation model learning method of the embodiment is realized by the impression estimation model learning device 1 performing the processing of each step illustrated in FIG. 2.

印象推定モデル学習装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。印象推定モデル学習装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。印象推定モデル学習装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。印象推定モデル学習装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。印象推定モデル学習装置1が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。   The impression estimation model learning device 1 is configured by reading a special program into a known or dedicated computer having, for example, a central processing unit (CPU: Central Processing Unit), a main memory (RAM: Random Access Memory), etc. Special equipment. The impression estimation model learning device 1 executes each process, for example, under the control of the central processing unit. The data input to the impression estimation model learning device 1 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. Used for other processing. At least a part of each processing unit of the impression estimation model learning device 1 may be configured by hardware such as an integrated circuit. Each storage unit included in the impression estimation model learning device 1 is, for example, a main storage device such as a random access memory (RAM), an auxiliary storage device including a semiconductor memory element such as a hard disk, an optical disk, or a flash memory. Or can be configured by middleware such as a relational database or key value store.

学習データ記憶部14には、印象推定モデルを学習するための学習データを蓄積した学習データベースが記憶されている。学習データベースの例を表1に示す。学習データベースは、表1に示すように、データ番号j(j=0, 1, …, J-1)に対して学習データx(j)、印象値y(j)、および評価者番号i(j)が関連付けられている。ここで、Jは学習データの総数である。   The learning data storage unit 14 stores a learning database in which learning data for learning an impression estimation model is accumulated. An example of a learning database is shown in Table 1. For the learning database, as shown in Table 1, learning data x (j), an impression value y (j), and an evaluator number i (for data number j (j = 0, 1, ..., J-1) j) are associated. Here, J is the total number of learning data.

Figure 2019095968
Figure 2019095968

学習データx(j)は、画像や音声等のデータを示す。1つの学習データx(j)に対して複数の評価者が印象値を付与するため、学習データベース内には同じ値の学習データx(j)が複数存在する(例えば、表1のj=0とj=1、j=2とj=3とj=4等)。学習データx(j)は、例えば、画像データや音声データから抽出した公知の特徴量である。   The learning data x (j) indicates data such as an image or voice. Since a plurality of evaluators assign impression values to one learning data x (j), a plurality of learning data x (j) having the same value exist in the learning database (for example, j = 0 in Table 1) And j = 1, j = 2, j = 3 and j = 4 etc.). The learning data x (j) is, for example, a known feature extracted from image data or voice data.

印象値y(j)は、人手で付与した印象値、すなわち印象値の正解値である。印象値y(j)は、評価する段階数の次元を持つベクトルであり、評価した値の次元が1、それ以外の次元が0となるOne-hotなベクトルとなる。例えば、「明るさ」を「非常に暗い:1」「暗い:2」「普通:3」「明るい:4」「非常に明るい:5」の5段階で評価した場合、「非常に暗い:1」と評価した場合は[1, 0, 0, 0, 0]、「暗い:2」と評価した場合は[0, 1, 0, 0, 0]、「普通:3」と評価した場合は[0, 0, 1, 0, 0]、「明るい:4」と評価した場合は[0, 0, 0, 1, 0]、「非常に明るい:5」と評価した場合は[0, 0, 0, 0, 1]といったベクトルとなる。   The impression value y (j) is a manually applied impression value, that is, the correct value of the impression value. The impression value y (j) is a vector having a dimension of the number of stages to be evaluated, and is a One-hot vector in which the dimension of the evaluated value is 1 and the other dimensions are 0. For example, when "brightness" is rated in 5 steps of "very dark: 1", "dark: 2", "normal: 3", "bright: 4", "very bright: 5", "very dark: 1" When it is evaluated as "1, 0, 0, 0, 0", when it is evaluated as "dark: 2", when it is evaluated as [0, 1, 0, 0, 0], and when it is evaluated as "usual: 3" When [0, 0, 1, 0, 0] and “bright: 4” are evaluated, [0, 0, 0, 1, 0], and when “very bright: 5” is evaluated, [0, 0 , 0, 0, 1].

評価者番号i(j)は、学習データx(j)に印象値y(j)を付与した評価者を示す識別子(ID)である。この評価者番号i(j)は、評価者傾向データ記憶部15に記憶されている評価者傾向データベースの評価者番号iと紐付く番号である。   The evaluator number i (j) is an identifier (ID) indicating the evaluator who assigned the impression value y (j) to the learning data x (j). The evaluator number i (j) is a number associated with the evaluator number i of the evaluator tendency database stored in the evaluator tendency data storage unit 15.

通常の印象推定では、あるデータに対してすべての評価者が印象値を付与し、その平均値を学習データのラベルとして推定したり、不一致の印象値を排除したりして学習をする。しかし、現実的に全ての評価者が全データに対してラベルを付与し、かつ十分な学習データ量を得ることは莫大なコストが必要とされる。そこで本実施形態では、あるデータに対して1名以上の評価者が印象値を付与し、その評価者の傾向を補助情報として与えて学習を行う。これにより、あるデータについて全員の評価を必要とせずに、印象値を学習することができるようになる。   In ordinary impression estimation, all evaluators assign impression values to certain data, and the average value is estimated as a label of learning data, and learning is performed by eliminating non-matching impression values. However, practically all evaluators label all data, and obtaining a sufficient amount of learning data requires enormous cost. Therefore, in the present embodiment, one or more evaluators assign an impression value to certain data, and learns by giving the evaluator's tendency as auxiliary information. This makes it possible to learn the impression value without requiring the evaluation of all the data.

評価者傾向データ記憶部15には、印象推定モデルを学習する際に与える補助情報である評価者傾向を蓄積した評価者傾向データベースが記憶されている。評価者傾向データベースの例を表2に示す。評価者傾向データベースでは、評価者番号i(i=0, 1, …, I-1)に対して評価者傾向q(i, k)(k=0, 1, …, K-1)が関連付けられている。ここで、Iは評価者の総数、Kは評価値の種類の数である。   The evaluator tendency data storage unit 15 stores an evaluator tendency database in which evaluator tendencies, which are auxiliary information given when learning an impression estimation model, are accumulated. An example of the evaluator tendency database is shown in Table 2. In the evaluator tendency database, the evaluator tendency q (i, k) (k = 0, 1, ..., K-1) is associated with the evaluator number i (i = 0, 1, ..., I-1). It is done. Here, I is the total number of evaluators, and K is the number of types of evaluation values.

Figure 2019095968
Figure 2019095968

評価者傾向q(i, k)は、評価者iが印象値をどの段階にどの程度付与しているか(言い換えると、評価者iにおける印象値k毎の出現確率)を表したベクトルである。例えば、「明るさ」を「非常に暗い:1」「暗い:2」「普通:3」「明るい:4」「非常に明るい:5」の5段階で評価した場合、i=0の評価者は「非常に暗い:1」の評価を1%、「暗い:2」の評価を2%、「普通:3」の評価を30%、「明るい:4」の評価を58%、「非常に明るい:5」の評価を9%の分布で評価しており、そのときの評価者傾向q(i, k)は[ 1%, 2%, 30%, 58%, 9%]といったベクトルとなる。   The evaluator tendency q (i, k) is a vector representing to what stage the evaluator i gives the impression value (in other words, the appearance probability for each impression value k in the evaluator i). For example, when "brightness" is evaluated in 5 levels of "very dark: 1", "dark: 2", "normal: 3", "bright: 4", "very bright: 5", i = 0 "Very dark: 1%" rating 1%, "dark: 2" rating 2%, "normal: 3" rating 30%, "bright: 4" rating 58%, "very Bright: The evaluation of “5” is evaluated with a distribution of 9%, and the evaluator tendency q (i, k) at that time is a vector such as [1%, 2%, 30%, 58%, 9%] .

以下、図2を参照して、実施形態の印象推定モデル学習装置1が実行する印象推定モデル学習方法について説明する。   Hereinafter, with reference to FIG. 2, the impression estimation model learning method which the impression estimation model learning apparatus 1 of embodiment performs is demonstrated.

ステップS11において、印象推定部11−nは、印象推定モデル記憶部111−nに記憶された印象推定モデルnを用いて、学習データx(j)に対する印象値の事後確率p(j, n)を計算して出力する。印象推定モデルnは、入力されたデータから印象値の事後確率を推定するモデルであり、評価の傾向を学習したものである。例えば、ある印象を{4, 5}で評価する評価者のグループもいれば、{3, 4, 5}で評価する評価者のグループや、{1, 2, 3, 4, 5}で評価する評価者のグループもいる。このとき、印象推定部11−1は印象を{4, 5}で推定し、印象推定部11−2は印象を{3, 4, 5}で推定し、印象推定部11−3は印象を{1, 2, 3, 4, 5}で推定する、といったように、各印象推定部11−nは評価者のグループの傾向を反映した印象推定を行う。印象推定部11−nの数Nは、評価者傾向データベースを用いて、自動的にクラスタ数を決定するクラスタリングを行い、求められたクラスタ数をNとすればよい。自動的にクラスタ数を決定するクラスタリングとしては、参考文献1に記載されたX-means等を用いることができる。   In step S11, the impression estimation unit 11-n uses the impression estimation model n stored in the impression estimation model storage unit 111-n to determine the posterior probability p (j, n) of the impression value for the learning data x (j). Calculate and output. The impression estimation model n is a model for estimating the posterior probability of an impression value from input data, and is a model in which the tendency of evaluation is learned. For example, if there is a group of evaluators who evaluate a certain impression with {4, 5}, the group of evaluators who rate with {3, 4, 5} or evaluation with {1, 2, 3, 4, 5} There is also a group of evaluators who At this time, the impression estimation unit 11-1 estimates an impression with {4, 5}, the impression estimation unit 11-2 estimates an impression with {3, 4, 5}, and the impression estimation unit 11-3 performs an impression. Each impression estimating unit 11-n performs impression estimation reflecting the tendency of the group of evaluators, such as estimation by {1, 2, 3, 4, 5}. The number N of impression estimation units 11-n may perform clustering for automatically determining the number of clusters using an evaluator tendency database, and set the calculated number of clusters as N. As clustering for automatically determining the number of clusters, X-means or the like described in reference 1 can be used.

〔参考文献1〕Dan Pelleg, Andrew W. Moore, "X-means: Extending K-means with Efficient Estimation of the Number of Clusters", ICML 2000, pp. 727-734, 2000.   [Reference 1] Dan Pelleg, Andrew W. Moore, "X-means: Extending K-means with Efficient Estimation of the Number of Clusters", ICML 2000, pp. 727-734, 2000.

なお、評価者傾向は   In addition, the evaluator's tendency is

Figure 2019095968
Figure 2019095968

が成り立つため、q(i, k)はディレクレ分布と同じ条件下(各次元の和が常に1)にある。参考文献1は、k-meansアルゴリズムによってクラスタを決定し、クラスタを増やすか否かを決定するベイズ情報量規準(BIC: Bayesian Information Criterion)の計算を、クラスタが正規分布に従うことを仮定して計算しているが、k-meansではなくk混合のディレクレ分布をEMアルゴリズムによってクラスタ数を求め、BICの計算も混合ディリクレ分布に基づいて計算することで、評価者傾向のグループ数をより厳密に求めることができる。 Since q (i, k) is under the same conditions as the Direlet distribution (the sum of each dimension is always 1). Reference 1 calculates the Bayesian Information Criterion (BIC), which determines clusters by the k-means algorithm and determines whether to increase clusters or not, assuming that the clusters follow a normal distribution. However, the number of groups of evaluator tendencies can be determined more strictly by calculating the number of clusters using the EM algorithm, and also calculating the BIC calculation based on the mixed Dirichlet distribution, instead of using the k-means instead of k-means. be able to.

事後確率とは、学習データx(j)が各段階に推定される確率を示す。例えば、「明るさ」を上記の5段階で評価するときの事後確率がp(j, n)=[0.10, 0.20, 0.30, 0.25, 0.15]の場合、学習データx(j)は、「非常に暗い:1」の確率が0.1、「暗い:2」の確率が0.2、「普通:3」の確率が0.30、「明るい:4」の確率が0.25、「非常に明るい:5」の確率が0.15となる。   The posterior probability indicates the probability that the learning data x (j) is estimated at each stage. For example, if the posterior probability when evaluating “brightness” in the above five steps is p (j, n) = [0.10, 0.20, 0.30, 0.25, 0.15], the learning data x (j) Dark to 1: probability of 0.1, Dark: 2 probability of 0.2, Normal: 3 probability of 0.30, Bright: 4 probability of 0.25, Very bright: 5 probability of It will be 0.15.

印象推定部11−nは、例えばニューラルネットワークやサポートベクターマシン(SVM: Support Vector Machine)等の一般的な機械学習の手法で推定することができる。この印象推定部11−nで用いる印象推定モデルnは、学習初期値ではパラメータをランダムに設定する。   The impression estimation unit 11-n can be estimated, for example, by a general machine learning method such as a neural network or a support vector machine (SVM). The impression estimation model n used by the impression estimation unit 11-n randomly sets parameters at the learning initial value.

ステップS12において、重み推定部12は、重み推定モデル記憶部16に記憶されている重み推定モデルを用いて、評価者傾向データ記憶部15に記憶された評価者傾向q(i, k)から重みα(j, n)を求める。重み推定モデルは、入力された評価者傾向から重みを推定するモデルである。この重みα(j, n)は、印象推定部11−1〜11−Nのうち、ある印象推定部11−nを最終的な推定結果としてどの程度考慮するかを表す割合の値である。重み推定部12も印象推定部11−nと同様に事後確率として重みα(j, n)を求めることができる。例えば、印象推定部11−1〜11−3において重みがα(j, 1)=0.1、α(j, 2)=0.6、α(j, 3)=0.3のとき、印象推定部11−1は10%、印象推定部11−2は60%、印象推定部11−3は30%の割合で、最終的な推定結果として考慮することとなる。   In step S12, using the weight estimation model stored in the weight estimation model storage unit 16, the weight estimation unit 12 weights from the evaluator tendency q (i, k) stored in the evaluator tendency data storage unit 15. Find α (j, n). The weight estimation model is a model that estimates weights from the input evaluator tendency. The weight α (j, n) is a value representing how much an impression estimation unit 11-n is considered as a final estimation result among the impression estimation units 11-1 to 11 -N. The weight estimation unit 12 can also obtain the weight α (j, n) as the posterior probability, similarly to the impression estimation unit 11-n. For example, when the weights α (j, 1) = 0.1, α (j, 2) = 0.6 and α (j, 3) = 0.3 in the impression estimation units 11-1 to 11-3, the impression estimation unit 11-1 Is 10%, the impression estimation unit 11-2 is 60%, and the impression estimation unit 11-3 is 30%, to be considered as the final estimation result.

重み推定部12は、例えばニューラルネットワークやサポートベクターマシン等の一般的な機械学習の手法で推定することができる。この重み推定部12で用いる重み推定モデルは、学習初期値ではパラメータをランダムに設定する。   The weight estimation unit 12 can be estimated by a general machine learning method such as a neural network or a support vector machine. The weight estimation model used by the weight estimation unit 12 randomly sets parameters at the learning initial value.

ステップS13において、モデル学習部13は、重み推定部12が出力する重みα(j, n)と印象推定部11−nが出力する事後確率p(j, n)と学習データ記憶部14に記憶されている学習データx(j)および印象値y(j)とを用いて、重み推定モデル記憶部16に記憶されている重み推定モデルと印象推定モデル記憶部111−nに記憶されている印象推定モデルnとを更新する。モデル学習部13は、重み推定モデル更新部131と印象推定モデル更新部132との両方を含んでおり、学習を繰り返す際に重み推定モデルと印象推定モデルnとを交互に更新していく。   In step S13, the model learning unit 13 stores the weight α (j, n) output by the weight estimation unit 12, the posterior probability p (j, n) output by the impression estimation unit 11-n, and the learning data storage unit 14. The weight estimation model stored in the weight estimation model storage unit 16 and the impression stored in the impression estimation model storage unit 111-n using the learning data x (j) and the impression value y (j) Update the estimation model n. The model learning unit 13 includes both the weight estimation model updating unit 131 and the impression estimation model updating unit 132, and alternately updates the weight estimation model and the impression estimation model n when repeating learning.

ステップS131において、重み推定モデル更新部131は、事後確率p(j, n)を与えたときの重み推定モデルを更新する。重み推定モデルは、例えばニューラルネットワークやサポートベクターマシン等でモデル化している。学習データx(j)の印象値y(j)と事後確率p(j, n)の重み和   In step S131, the weight estimation model updating unit 131 updates the weight estimation model when the posterior probability p (j, n) is given. The weight estimation model is modeled by, for example, a neural network or a support vector machine. Weighted sum of impression value y (j) of training data x (j) and posterior probability p (j, n)

Figure 2019095968
Figure 2019095968

との差分から重み推定モデルを更新する。重み推定モデルがニューラルネットワークの場合は、ニューラルネットワークの一般的な学習法(誤差伝搬法)から重み推定モデルを更新することができる。重み推定モデルがサポートベクターマシンの場合は、 Update the weight estimation model from the difference between When the weight estimation model is a neural network, the weight estimation model can be updated from a general learning method (error propagation method) of the neural network. If the weight estimation model is a support vector machine,

Figure 2019095968
Figure 2019095968

である印象推定モデル番号^nを求め、評価者傾向q(i(j), k)を入力として、印象推定モデル番号^nを推定できるようにサポートベクターマシンを学習する。 The impression estimation model number ^ n which is is determined, and the support vector machine is learned so that the impression estimation model number ^ n can be estimated with the evaluator tendency q (i (j), k) as an input.

ステップS132において、印象推定モデル更新部132は、重みα(j, n)を与えたときに、印象推定モデルnを更新する。印象推定モデルnの更新は各モデルで一般的な方法で更新するが、各モデルの学習に用いるサンプルx[j], y[j]の学習の重みをα(j, n)で与えて学習する。   In step S132, the impression estimation model updating unit 132 updates the impression estimation model n when the weight α (j, n) is given. The impression estimation model n is updated by a general method for each model, but the learning weights of the samples x [j] and y [j] used for learning each model are given by α (j, n) and learning is performed Do.

重み推定モデル更新部131と印象推定モデル更新部132とを交互に更新していくことで、印象の評価者傾向のグループが印象推定モデル1〜Nに自動的にクラスタリングされ、評価者の傾向ごとにどの印象推定モデルnを重点的に推定結果として反映するかを表す重みが学習されるようになる。推定時には、入力された評価者傾向に応じて、適切な印象推定部11−nが重みαで選択され、入力データに対する統合された事後確率が求められるようになる。   By alternately updating the weight estimation model updating unit 131 and the impression estimation model updating unit 132, the groups of the evaluator tendencies of impressions are automatically clustered into the impression estimation models 1 to N. A weight representing which impression estimation model n is to be reflected as an estimation result on a priority basis is learned. At the time of estimation, an appropriate impression estimation unit 11-n is selected with the weight α according to the input evaluator tendency, and integrated posterior probabilities for input data can be obtained.

本実施形態では、重み推定モデル更新部131と印象推定モデル更新部132とを交互に更新していったが、両者ともニューラルネットワークでモデル化する際は、重み推定モデル更新部131と重み推定モデル記憶部16、印象推定モデル更新部132と印象推定モデル記憶部111−nを1つのニューラルネットワークで表現することができるため、y(j)とy'(j)との誤差の値から、同時に重み推定モデルと印象推定モデルとを更新することができるようになる。   In this embodiment, the weight estimation model update unit 131 and the impression estimation model update unit 132 are alternately updated, but when both are modeled by a neural network, the weight estimation model update unit 131 and the weight estimation model are used. Since the storage unit 16, the impression estimation model updating unit 132, and the impression estimation model storage unit 111-n can be expressed by one neural network, the values of the errors between y (j) and y '(j) can be simultaneously calculated. It becomes possible to update the weight estimation model and the impression estimation model.

<印象推定装置>
実施形態の印象推定装置2は、図3に示すように、N(≧2)個の印象推定部11−n(n=1, 2, …, N)と、重み推定部12と、重み推定モデル記憶部16と、推定値統合部17とを備える。各印象推定部11−nは、印象推定モデル記憶部111−nを備える。この印象推定装置2が、図4に例示する各ステップの処理を行うことにより実施形態の印象推定方法が実現される。
<Impression estimation device>
As shown in FIG. 3, the impression estimation device 2 according to the embodiment includes N (22) impression estimation units 11-n (n = 1, 2,..., N), a weight estimation unit 12, and weight estimation. A model storage unit 16 and an estimated value integration unit 17 are provided. Each impression estimation unit 11-n includes an impression estimation model storage unit 111-n. The impression estimation method of the embodiment is realized by the impression estimation device 2 performing the processing of each step illustrated in FIG. 4.

印象推定装置2は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。印象推定装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。印象推定装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。印象推定装置2の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。印象推定装置2が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。   The impression estimation device 2 is configured by, for example, a special program read into a known or dedicated computer having a central processing unit (CPU: Central Processing Unit), a main storage device (RAM: Random Access Memory), etc. Device. The impression estimation device 2 executes each process, for example, under the control of the central processing unit. The data input to the impression estimation device 2 and the data obtained by each process are stored, for example, in the main storage device, and the data stored in the main storage device is read out to the central processing unit as necessary. It is used for other processing. At least a part of each processing unit of the impression estimation device 2 may be configured by hardware such as an integrated circuit. Each storage unit included in the impression estimation device 2 is, for example, a main storage device such as a random access memory (RAM), an auxiliary storage device configured by a semiconductor memory element such as a hard disk, an optical disk, or a flash memory It can be configured by middleware such as a relational database or key value store.

印象推定モデル記憶部111−nには、印象推定モデル学習装置1により学習した印象推定モデルnが記憶されている。   The impression estimation model storage unit 111-n stores an impression estimation model n learned by the impression estimation model learning device 1.

重み推定モデル記憶部16には、印象推定モデル学習装置1により学習した重み推定モデルが記憶されている。   The weight estimation model storage unit 16 stores a weight estimation model learned by the impression estimation model learning device 1.

以下、図4を参照して、実施形態の印象推定装置2が実行する印象推定方法について説明する。   Hereinafter, with reference to FIG. 4, the impression estimation method which the impression estimation apparatus 2 of embodiment performs is demonstrated.

ステップS11において、印象推定部11−nは、印象推定モデル記憶部111−nに記憶された印象推定モデルnを用いて、入力データxに対する印象値の事後確率p(n)を計算して出力する。各印象推定部11−nが出力した印象値の事後確率p(n)は推定値統合部17へ入力される。   In step S11, the impression estimating unit 11-n calculates and outputs the posterior probability p (n) of the impression value for the input data x using the impression estimating model n stored in the impression estimating model storage unit 111-n. Do. The posterior probability p (n) of the impression value output from each impression estimation unit 11-n is input to the estimated value integration unit 17.

ステップS12において、重み推定部12は、重み推定モデル記憶部16に記憶されている重み推定モデルを用いて、入力された評価者傾向q(k)から重みα(n)を求める。重み推定部12が出力した重みα(n)は推定値統合部17へ入力される。   In step S12, the weight estimation unit 12 obtains the weight α (n) from the input evaluator tendency q (k) using the weight estimation model stored in the weight estimation model storage unit 16. The weight α (n) output from the weight estimation unit 12 is input to the estimated value integration unit 17.

重み推定部12へ入力される評価者傾向q(k)は、任意の評価者傾向を与えることができる。例えば、ある実在の評価者の評価者傾向q(k)を与えれば、その評価者と同じ傾向にある評価者の印象値を推定することができる。また、人手で設定した仮想的な評価者の評価者傾向q(k)を与えれば、その仮想的な評価者による印象値をシミュレーションすることができる。さらに、評価者全体から算出した評価者傾向q(k)の平均値を与えれば、平均的な印象値を求めることも可能である。   The evaluator tendency q (k) input to the weight estimation unit 12 can give an arbitrary evaluator tendency. For example, if the evaluator tendency q (k) of a certain existing evaluator is given, it is possible to estimate the impression value of the evaluator having the same tendency as the evaluator. Also, if an evaluator tendency q (k) of a virtual evaluator set manually is given, it is possible to simulate an impression value by the virtual evaluator. Furthermore, it is also possible to obtain an average impression value by giving an average value of the evaluator tendency q (k) calculated from the entire evaluator.

ステップS17において、推定値統合部17は、印象推定部11−nから受け取った事後確率p(n)と重み推定部12から受け取った重みα(n)とを用いて次式を計算し、統合された事後確率yを計算する。   In step S17, the estimated value integration unit 17 calculates the following equation using the posterior probability p (n) received from the impression estimation unit 11-n and the weight α (n) received from the weight estimation unit 12, and integration is performed Calculate the a posteriori probability y.

Figure 2019095968
Figure 2019095968

推定値統合部17は、統合された事後確率から最も高い事後確率の次元を、推定する印象値cとして出力する。また、統合された事後確率y自体を印象値cとして用いることも可能である。   The estimated value integration unit 17 outputs the dimension of the highest posterior probability from the integrated posterior probability as an impression value c to be estimated. It is also possible to use the integrated posterior probability y itself as the impression value c.

本実施形態では、印象推定の補助情報として評価者の評価者傾向q(k)を与えたが、その他の情報も補助情報として重み推定部12に与えることが可能である。例えば、予め定めた環境に関する情報を評価者の評価者傾向q(k)と組み合わせて補助情報として重み推定部12に与えてもよい。環境に関する情報とは、印象の評価に影響を与え得る環境に関する情報であり、例えば、コールセンターの録音音声からオペレータの印象(例えば、好感度、明るさ等)の自動推定を行う場合は、そのコールセンターの受付内容(例えば、故障受付、新規受付、解約受付、お客様相談等)やコールセンターの担当者のスキル(例えば、一次受付担当、スーパーバイザー等)によって印象の評価が異なる可能性があるため、コールセンターの受付内容やスキルの属性を表す値が想定される。また、画像の印象を評価する場面であれば周囲の明るさが評価に影響を与える可能性があるため、屋内か屋外かなどの評価を行う環境の属性を表す値などが想定される。すなわち、印象の評価に影響を与え得る環境に関する情報を補助情報として与えることで、環境による評価のブレを反映した印象推定を行うことが可能となる。   In the present embodiment, the evaluator tendency q (k) of the evaluator is given as auxiliary information for impression estimation, but other information can also be given to the weight estimation unit 12 as auxiliary information. For example, information on a predetermined environment may be combined with the evaluator tendency q (k) of the evaluator and given to the weight estimation unit 12 as auxiliary information. The information on the environment is information on the environment that may affect the evaluation of the impression, and, for example, in the case of automatically estimating the operator's impression (for example, preference, brightness, etc.) from the voice recording of the call center, the call center The evaluation of the impression may differ depending on the content of the reception (for example, failure reception, new reception, cancellation reception, customer consultation, etc.) or the skills of the person in charge of the call center (for example, primary receptionist, supervisor, etc.) A value representing the contents of acceptance of the content or the skill attribute is assumed. In the case of a scene where the impression of an image is to be evaluated, ambient brightness may affect the evaluation, so a value representing an attribute of an environment to be evaluated such as indoor or outdoor is assumed. That is, by providing information on the environment that can influence the evaluation of the impression as the auxiliary information, it becomes possible to perform the impression estimation reflecting the blurring of the evaluation due to the environment.

以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。   As mentioned above, although embodiment of this invention was described, a specific structure is not restricted to these embodiment, Even if there is a change of design suitably etc. in the range which does not deviate from the meaning of this invention, Needless to say, it is included in the present invention. The various processes described in the embodiment are not only executed chronologically according to the order described, but may be executed in parallel or individually depending on the processing capability of the apparatus executing the process or the necessity.

[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
[Program, recording medium]
When various processing functions in each device described in the above embodiments are implemented by a computer, the processing content of the function that each device should have is described by a program. By executing this program on a computer, various processing functions in each of the above-described devices are realized on the computer.

この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。   The program describing the processing content can be recorded in a computer readable recording medium. As the computer readable recording medium, any medium such as a magnetic recording device, an optical disc, a magneto-optical recording medium, a semiconductor memory, etc. may be used.

また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。   Further, the distribution of this program is carried out, for example, by selling, transferring, lending, etc. a portable recording medium such as a DVD, a CD-ROM, etc. in which the program is recorded. Furthermore, this program may be stored in a storage device of a server computer, and the program may be distributed by transferring the program from the server computer to another computer via a network.

このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。   For example, a computer that executes such a program first temporarily stores a program recorded on a portable recording medium or a program transferred from a server computer in its own storage device. Then, at the time of execution of the process, this computer reads the program stored in its own storage device and executes the process according to the read program. Further, as another execution form of this program, the computer may read the program directly from the portable recording medium and execute processing according to the program, and further, the program is transferred from the server computer to this computer Each time, processing according to the received program may be executed sequentially. In addition, a configuration in which the above-described processing is executed by a so-called ASP (Application Service Provider) type service that realizes processing functions only by executing instructions and acquiring results from the server computer without transferring the program to the computer It may be Note that the program in the present embodiment includes information provided for processing by a computer that conforms to the program (such as data that is not a direct command to the computer but has a property that defines the processing of the computer).

また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。   Further, in this embodiment, although the present apparatus is configured by executing a predetermined program on a computer, at least a part of the processing contents may be realized as hardware.

1 印象推定モデル学習装置
2 印象推定装置
11 印象推定部
111 印象推定モデル記憶部
12 重み推定部
13 モデル学習部
14 学習データ記憶部
15 評価者傾向データ記憶部
16 重み推定モデル記憶部
17 推定値統合部
1 Impression estimation model learning device 2 Impression estimation device 11 Impression estimation unit 111 Impression estimation model storage unit 12 Weight estimation unit 13 Model learning unit 14 Learning data storage unit 15 Evaluator tendency data storage unit 16 Weight estimation model storage unit 17 Integration of estimated values Department

Claims (8)

学習データとその学習データに付与された印象値の正解値とその印象値の正解値を与えた評価者とを関連付けた学習データベースを記憶する学習データ記憶部と、
評価者とその評価者における印象値毎の出現確率を表す評価者傾向とを関連付けた評価者傾向データベースを記憶する評価者傾向データ記憶部と、
上記学習データから印象値の事後確率を推定する印象推定モデルを記憶する印象推定モデル記憶部と、
上記評価者傾向から重みを推定する重み推定モデルを記憶する重み推定モデル記憶部と、
上記評価者傾向を分類したグループ毎に上記印象推定モデルを用いて上記学習データから上記印象値の事後確率を推定する印象推定部と、
上記重み推定モデルを用いて上記学習データに関連付けられた上記評価者傾向から上記重みを推定する重み推定部と、
上記重みにより重み付けした上記印象値の事後確率と上記学習データに付与された上記印象値の正解値との差分から上記重み推定モデルを更新する重み推定モデル更新部と、
上記印象値の事後確率から上記重みを学習重みとして上記印象推定モデルを更新する印象推定モデル更新部と、
を含む印象推定モデル学習装置。
A learning data storage unit that stores a learning database in which learning data, a correct value of an impression value given to the learning data, and an evaluator who gave a correct value of the impression value are associated;
An evaluator tendency data storage unit storing an evaluator tendency database in which an evaluator and an evaluator tendency representing an appearance probability for each impression value in the evaluator are associated;
An impression estimation model storage unit for storing an impression estimation model for estimating a posterior probability of an impression value from the learning data;
A weight estimation model storage unit that stores a weight estimation model that estimates a weight from the evaluator tendency;
An impression estimating unit that estimates the posterior probability of the impression value from the learning data using the impression estimation model for each group into which the evaluator tendency is classified;
A weight estimation unit that estimates the weights from the evaluator tendency associated with the learning data using the weight estimation model;
A weight estimation model updating unit that updates the weight estimation model from the difference between the posterior probability of the impression value weighted by the weight and the correct value of the impression value given to the learning data;
An impression estimation model updating unit that updates the impression estimation model using the weight as a learning weight from the posterior probability of the impression value;
Impression estimation model learning device including.
請求項1に記載の印象推定モデル学習装置であって、
上記印象推定部は、上記評価者傾向データベースに基づいてクラスタ数を決定し、上記評価者傾向を上記クラスタ数に分類したグループ毎に上記印象推定モデルを用いて上記学習データから上記印象値の事後確率を推定するものである、
印象推定モデル学習装置。
The impression estimation model learning device according to claim 1, wherein
The impression estimating unit determines the number of clusters based on the evaluator tendency database, and the impression estimation model is used for each group in which the evaluator tendency is classified into the number of clusters. To estimate the probability,
Impression estimation model learning device.
請求項1または2に記載の印象推定モデル学習装置であって、
上記評価者傾向データベースは、上記評価者と上記評価者傾向と評価を行った環境に関する情報とを関連付けたものであり、
上記重み推定モデルは、少なくとも上記環境に関する情報から上記重みを推定するものであり、
上記重み推定部は、上記重み推定モデルを用いて少なくとも上記学習データに関連付けられた上記環境に関する情報から上記重みを推定するものである、
印象推定モデル学習装置。
The impression estimation model learning device according to claim 1 or 2, wherein
The evaluator tendency database associates the evaluator and the evaluator tendency with information about the environment in which the evaluator was evaluated,
The weight estimation model estimates the weight from at least information on the environment,
The weight estimation unit estimates the weight from at least information on the environment associated with the learning data using the weight estimation model.
Impression estimation model learning device.
請求項1から3のいずれかに記載の印象推定モデル学習装置により学習した印象推定モデルを記憶する印象推定モデル記憶部と、
請求項1から3のいずれかに記載の印象推定モデル学習装置により学習した重み推定モデルを記憶する重み推定モデル記憶部と、
評価者における印象値毎の出現確率を表す評価者傾向を分類したグループ毎に上記印象推定モデルを用いて入力データから印象値の事後確率を推定する印象推定部と、
上記重み推定モデルを用いて入力された評価者傾向から重みを推定する重み推定部と、
上記重みにより重み付けした上記印象値の事後確率である統合事後確率に基づいて上記入力データの印象値を求める統合値推定部と、
を含む印象推定装置。
An impression estimation model storage unit that stores an impression estimation model learned by the impression estimation model learning device according to any one of claims 1 to 3;
A weight estimation model storage unit storing a weight estimation model learned by the impression estimation model learning device according to any one of claims 1 to 3.
An impression estimation unit for estimating a posterior probability of an impression value from input data using the impression estimation model for each group into which an evaluator tendency representing the appearance probability for each impression value in the evaluator is classified;
A weight estimation unit that estimates a weight from the evaluator tendency input using the weight estimation model;
An integrated value estimating unit for obtaining an impression value of the input data based on an integrated posterior probability which is a posterior probability of the impression value weighted by the weight;
Impression estimation device including.
請求項4に記載の印象推定装置であって、
上記統合値推定部は、上記統合事後確率のうち値が最も高い次元を上記入力データの印象値として求めるものである、
印象推定装置。
The impression estimation apparatus according to claim 4, wherein
The integrated value estimation unit obtains a dimension having the highest value among the integrated posterior probabilities as an impression value of the input data.
Impression estimation device.
学習データ記憶部に、学習データとその学習データに付与された印象値の正解値とその印象値の正解値を与えた評価者とを関連付けた学習データベースが記憶されており、
評価者傾向データ記憶部に、評価者とその評価者における印象値毎の出現確率を表す評価者傾向とを関連付けた評価者傾向データベースが記憶されており、
印象推定モデル記憶部に、上記学習データから印象値の事後確率を推定する印象推定モデルが記憶されており、
重み推定モデル記憶部に、上記評価者傾向から重みを推定する重み推定モデルが記憶されており、
印象推定部が、上記評価者傾向を分類したグループ毎に上記印象推定モデルを用いて上記学習データから上記印象値の事後確率を推定し、
重み推定部が、上記重み推定モデルを用いて上記学習データに関連付けられた上記評価者傾向から上記重みを推定し、
重み推定モデル更新部が、上記重みにより重み付けした上記印象値の事後確率と上記学習データに付与された上記印象値の正解値との差分から上記重み推定モデルを更新し、
印象推定モデル更新部が、上記印象値の事後確率から上記重みを学習重みとして上記印象推定モデルを更新する、
印象推定モデル学習方法。
The learning data storage unit stores a learning database in which the learning data, the correct value of the impression value given to the learning data, and the evaluator who gave the correct value of the impression value are associated with each other,
The evaluator tendency data storage unit stores an evaluator tendency database in which an evaluator and an evaluator tendency representing an appearance probability for each impression value in the evaluator are associated with each other,
The impression estimation model storage unit stores an impression estimation model that estimates the posterior probability of the impression value from the learning data,
The weight estimation model storage unit stores a weight estimation model for estimating the weight from the evaluator tendency,
The impression estimation unit estimates the posterior probability of the impression value from the learning data using the impression estimation model for each group into which the evaluator tendency is classified.
A weight estimation unit estimates the weight from the evaluator tendency associated with the learning data using the weight estimation model;
The weight estimation model updating unit updates the weight estimation model from the difference between the posterior probability of the impression value weighted by the weight and the correct value of the impression value given to the learning data,
The impression estimation model updating unit updates the impression estimation model using the weight as a learning weight from the posterior probability of the impression value.
Impression estimation model learning method.
印象推定モデル記憶部に、請求項6に記載の印象推定モデル学習方法により学習した印象推定モデルが記憶されており、
重み推定モデル記憶部に、請求項6に記載の印象推定モデル学習方法により学習した重み推定モデルが記憶されており、
印象推定部が、評価者における印象値毎の出現確率を表す評価者傾向を分類したグループ毎に上記印象推定モデルを用いて入力データから印象値の事後確率を推定し、
重み推定部が、上記重み推定モデルを用いて入力された評価者傾向から重みを推定し、
統合値推定部が、上記重みにより重み付けした上記印象値の事後確率である統合事後確率に基づいて上記入力データの印象値を求める、
印象推定方法。
An impression estimation model learned by the impression estimation model learning method according to claim 6 is stored in the impression estimation model storage unit,
A weight estimation model learned by the impression estimation model learning method according to claim 6 is stored in the weight estimation model storage unit,
The impression estimating unit estimates the posterior probability of the impression value from the input data using the impression estimation model for each group into which the evaluator tendency representing the appearance probability for each impression value in the evaluator is classified.
A weight estimation unit estimates a weight from the evaluator tendency input using the weight estimation model;
The integrated value estimation unit obtains an impression value of the input data based on an integrated posterior probability which is a posterior probability of the impression value weighted by the weight.
Impression estimation method.
請求項1から3のいずれかに記載の印象推定モデル学習装置もしくは請求項4または5に記載の印象推定装置としてコンピュータを機能させるためのプログラム。   A program for causing a computer to function as the impression estimation model learning device according to any one of claims 1 to 3 or the impression estimation device according to claim 4 or 5.
JP2017223599A 2017-11-21 2017-11-21 Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program Active JP6856503B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223599A JP6856503B2 (en) 2017-11-21 2017-11-21 Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223599A JP6856503B2 (en) 2017-11-21 2017-11-21 Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program

Publications (2)

Publication Number Publication Date
JP2019095968A true JP2019095968A (en) 2019-06-20
JP6856503B2 JP6856503B2 (en) 2021-04-07

Family

ID=66972991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223599A Active JP6856503B2 (en) 2017-11-21 2017-11-21 Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program

Country Status (1)

Country Link
JP (1) JP6856503B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014878A1 (en) * 2019-07-25 2021-01-28 オムロン株式会社 Inference device, inference method, and inference program
WO2021019643A1 (en) * 2019-07-29 2021-02-04 日本電信電話株式会社 Impression inference device, learning device, and method and program therefor
JP2022013346A (en) * 2020-07-03 2022-01-18 楽天グループ株式会社 Learning apparatus, estimation apparatus, learning method, estimation method, program, and program of learned estimation model
JP7396133B2 (en) 2020-03-11 2023-12-12 オムロン株式会社 Parameter adjustment device, inference device, parameter adjustment method, and parameter adjustment program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336406A (en) * 2006-06-19 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> Image subject quality estimating method, image subject quality estimating apparatus, image subject quality estimation processing program, and recording medium capable of reading computer recording its program
JP2009157907A (en) * 2007-12-03 2009-07-16 Sony Corp Information processing device and method, and program
JP2010272053A (en) * 2009-05-25 2010-12-02 Victor Co Of Japan Ltd Data classifier creation device, data classification device, data classifier creation method, data classification method, data classifier creation program, and data classification program
JP2016207171A (en) * 2015-04-28 2016-12-08 日本電信電話株式会社 Parameter estimation method, evaluation value estimation method, apparatus, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007336406A (en) * 2006-06-19 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> Image subject quality estimating method, image subject quality estimating apparatus, image subject quality estimation processing program, and recording medium capable of reading computer recording its program
JP2009157907A (en) * 2007-12-03 2009-07-16 Sony Corp Information processing device and method, and program
JP2010272053A (en) * 2009-05-25 2010-12-02 Victor Co Of Japan Ltd Data classifier creation device, data classification device, data classifier creation method, data classification method, data classifier creation program, and data classification program
JP2016207171A (en) * 2015-04-28 2016-12-08 日本電信電話株式会社 Parameter estimation method, evaluation value estimation method, apparatus, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021014878A1 (en) * 2019-07-25 2021-01-28 オムロン株式会社 Inference device, inference method, and inference program
JP2021022079A (en) * 2019-07-25 2021-02-18 オムロン株式会社 Inference device, inference method, and inference program
JP7342491B2 (en) 2019-07-25 2023-09-12 オムロン株式会社 Inference device, inference method, and inference program
US11941868B2 (en) 2019-07-25 2024-03-26 Omron Corporation Inference apparatus, inference method, and computer-readable storage medium storing an inference program
WO2021019643A1 (en) * 2019-07-29 2021-02-04 日本電信電話株式会社 Impression inference device, learning device, and method and program therefor
JPWO2021019643A1 (en) * 2019-07-29 2021-02-04
JP7396133B2 (en) 2020-03-11 2023-12-12 オムロン株式会社 Parameter adjustment device, inference device, parameter adjustment method, and parameter adjustment program
JP2022013346A (en) * 2020-07-03 2022-01-18 楽天グループ株式会社 Learning apparatus, estimation apparatus, learning method, estimation method, program, and program of learned estimation model
JP7010337B2 (en) 2020-07-03 2022-01-26 楽天グループ株式会社 A program of a learning device, an estimation device, a learning method, an estimation method, a program, and a trained estimation model.

Also Published As

Publication number Publication date
JP6856503B2 (en) 2021-04-07

Similar Documents

Publication Publication Date Title
CN110032641B (en) Method and device for extracting event by using neural network and executed by computer
CN110070391B (en) Data processing method and device, computer readable medium and electronic equipment
JP6856503B2 (en) Impression estimation model learning device, impression estimation device, impression estimation model learning method, impression estimation method, and program
JP2016505974A (en) Instance weight learning machine learning model
US20170330556A1 (en) Two-stage training of a spoken dialogue system
JP7208595B2 (en) Movie Success Index Prediction
JP2020144569A (en) Model learning device, label estimation device, method thereof, and program
US11487949B2 (en) Image object disambiguation resolution using learner model based conversation templates
US10762089B2 (en) Open ended question identification for investigations
CN110349007A (en) The method, apparatus and electronic equipment that tenant group mentions volume are carried out based on variable discrimination index
CN110704668B (en) Grid-based collaborative attention VQA method and device
US11562400B1 (en) Uplift modeling
CN115374259A (en) Question and answer data mining method and device and electronic equipment
CN116821513A (en) Parameter searching method, device, equipment and medium under recommended scene
JP2021047783A (en) Information processing method and information processing apparatus
CN114493674A (en) Advertisement click rate prediction model and method
JP7111017B2 (en) Paralinguistic information estimation model learning device, paralinguistic information estimation device, and program
CN113763928A (en) Audio category prediction method and device, storage medium and electronic equipment
JP6813880B2 (en) Computer systems, methods, and computer programs for determining the suitability of users and content
JP2020129322A (en) Model learning device, label estimation device, method thereof, and program
JP2018163181A (en) Educational material provision system, educational material provision method, and program
WO2023119521A1 (en) Visualization information generation device, visualization information generation method, and program
CN113807749B (en) Object scoring method and device
CN114862819B (en) Image quality evaluation method, device, equipment and medium based on asymmetric network
CN112988957B (en) Case pre-judgment result generation method and device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R150 Certificate of patent or registration of utility model

Ref document number: 6856503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150