JP6856503B2 - 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム - Google Patents

印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム Download PDF

Info

Publication number
JP6856503B2
JP6856503B2 JP2017223599A JP2017223599A JP6856503B2 JP 6856503 B2 JP6856503 B2 JP 6856503B2 JP 2017223599 A JP2017223599 A JP 2017223599A JP 2017223599 A JP2017223599 A JP 2017223599A JP 6856503 B2 JP6856503 B2 JP 6856503B2
Authority
JP
Japan
Prior art keywords
impression
estimation model
weight
value
evaluator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017223599A
Other languages
English (en)
Other versions
JP2019095968A (ja
Inventor
歩相名 神山
歩相名 神山
哲 小橋川
哲 小橋川
厚志 安藤
厚志 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017223599A priority Critical patent/JP6856503B2/ja
Publication of JP2019095968A publication Critical patent/JP2019095968A/ja
Application granted granted Critical
Publication of JP6856503B2 publication Critical patent/JP6856503B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

この発明は、データの印象を自動的に推定する技術に関する。
音声や画像等のデータの印象を自動推定する技術が必要とされている。例えば、音楽や画像の印象(明るさ、軽さ等)が推定できると、データの印象値を自動で付与し、データの検索に利用できるようになる。他にも、コールセンターのオペレータの印象(自然さ、好感度等)を推定できると、オペレータの応対品質の自動評価ができるようになる。
機械学習を用いたデータの印象の自動推定には、予め印象値を付与したデータを人手で作成し、データと印象値とを紐付けた機械学習モデルを学習することで実現できる。このとき、人手で付与した印象値は、人によって評価の基準が異なるため、機械学習モデルを学習する際には、例えば下記のように学習データを整備することが必要となる(非特許文献1参照)。
1.印象値(数段階評価)を人手で複数名にてラベル付けする。
2.必要に応じて、数段階の印象値を2〜3段階のラベルに丸める。
3.人によってブレのあるデータを正解データから除外するために、複数名で一致したラベルのみを選別する(3名以上が付与している場合は、多数決によるラベルの選定でもよい)。
安定した印象値を推定するモデルを学習するためには、安定して印象値を付与できる評価者(例えば、異なる日に同じデータを聴取したときに、同じ印象値を付与できる評価者)を選定し、かつ、印象値を安定させながら付与するためには、休憩を挟みながら印象値の付与作業を行うことが必要である(非特許文献2参照)。
酒造正樹他、"情動・感情判別のための自然発話データベースの構築"、情報処理学会論文誌、vol. 52、No. 3、pp. 1185-1194、2011年 籠宮隆之他、"印象評定データの概要"、[online]、[平成29年11月1日検索]、インターネット<URL: http://pj.ninjal.ac.jp/corpus_center/csj/manu-f/impression.pdf>
安定した印象推定モデルを学習するためには、安定した評価者の選定、休憩を挟みながらの長期間の評価、およびブレのあるデータの除外等を行う必要があるため、非常にコストが高くなる。また、評価者をある程度選定してしまうと、その評価者数名の傾向に特化した印象推定モデルが学習されてしまい、推定された印象値が利用者の平均的な感覚の印象値とは異なるものとなる場合がある。
この発明の目的は、上記のような点に鑑みて、評価者の選定やデータの除外を行わずに、評価者の印象評価の傾向を加味しつつ、平均的な印象値を安定的に推定することができる印象推定技術を実現することである。
上記の課題を解決するために、この発明の第一の態様の印象推定モデル学習装置は、学習データとその学習データに付与された印象値の正解値とその印象値の正解値を与えた評価者とを関連付けた学習データベースを記憶する学習データ記憶部と、評価者とその評価者における印象値毎の出現確率を表す評価者傾向とを関連付けた評価者傾向データベースを記憶する評価者傾向データ記憶部と、学習データから印象値の事後確率を推定する印象推定モデルを記憶する印象推定モデル記憶部と、評価者傾向から重みを推定する重み推定モデルを記憶する重み推定モデル記憶部と、評価者傾向を分類したグループ毎に印象推定モデルを用いて学習データから印象値の事後確率を推定する印象推定部と、重み推定モデルを用いて学習データに関連付けられた評価者傾向から重みを推定する重み推定部と、重みにより重み付けした印象値の事後確率と学習データに付与された印象値の正解値との差分から重み推定モデルを更新する重み推定モデル更新部と、印象値の事後確率から重みを学習重みとして印象推定モデルを更新する印象推定モデル更新部と、を含む。
上記の課題を解決するために、この発明の第二の態様の印象推定装置は、第一の態様の印象推定モデル学習装置により学習した印象推定モデルを記憶する印象推定モデル記憶部と、第一の態様の印象推定モデル学習装置により学習した重み推定モデルを記憶する重み推定モデル記憶部と、評価者における印象値毎の出現確率を表す評価者傾向を分類したグループ毎に印象推定モデルを用いて入力データから印象値の事後確率を推定する印象推定部と、重み推定モデルを用いて入力された評価者傾向から重みを推定する重み推定部と、重みにより重み付けした印象値の事後確率である統合事後確率に基づいて入力データの印象値を求める統合値推定部と、を含む。
この発明の印象推定技術によれば、学習データの全データについて全評価者が印象値を付与する必要が無いため、評価者の選定や長期間の拘束が不要となり、かつ、ラベルの選定が不要となるため、学習データの作成コストを削減することができる。これにより、人によって基準が異なる印象値について、平均的な印象値を安定的に推定することが可能となる。すなわち、この発明の印象推定技術によれば、評価者の選定やデータの除外を行わずに、評価者の印象評価の傾向を加味しつつ、平均的な印象値を安定的に推定することができる。
図1は、印象推定モデル学習装置の機能構成を例示する図である。 図2は、印象推定モデル学習方法の処理手続きを例示する図である。 図3は、印象推定装置の機能構成を例示する図である。 図4は、印象推定方法の処理手続きを例示する図である。
この発明のポイントは、以下の通りである。まず、複数の印象推定モデルにより評価者による印象値のブレを傾向毎のグループに自動分類する。次に、印象値の推定結果を自動分類した結果に、評価者による印象値のブレの傾向に応じた重みを与え、その結果を統合して最終的な印象値を推定する。このようにして、印象値の推定結果に対して、評価者による評価の平均的なブレを与えて、平均的な印象値を推定する。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
この発明の実施形態は、予め用意した学習データと評価者傾向データとを用いて印象推定モデルと重み推定モデルとを学習する印象推定モデル学習装置と、学習済みの印象推定モデルと重み推定モデルとを用いて入力されたデータの印象値を推定する印象推定装置とに大きく分かれる。以下、実施形態の印象推定モデル学習装置と印象推定装置の機能構成と処理手続きの詳細を順に説明する。
なお、文中で使用する記号「^」等は、本来直後の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直前に記載する。数式中においてはこれらの記号は本来の位置、すなわち文字の真上に記述している。
<印象推定モデル学習装置>
実施形態の印象推定モデル学習装置1は、図1に示すように、N(≧2)個の印象推定部11−n(n=1, 2, …, N)と、重み推定部12と、モデル学習部13と、学習データ記憶部14と、評価者傾向データ記憶部15と、重み推定モデル記憶部16とを備える。各印象推定部11−nは、印象推定モデル記憶部111−nを備える。モデル学習部13は、重み推定モデル更新部131と、印象推定モデル更新部132とを備える。この印象推定モデル学習装置1が、図2に例示する各ステップの処理を行うことにより実施形態の印象推定モデル学習方法が実現される。
印象推定モデル学習装置1は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。印象推定モデル学習装置1は、例えば、中央演算処理装置の制御のもとで各処理を実行する。印象推定モデル学習装置1に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。印象推定モデル学習装置1の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。印象推定モデル学習装置1が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
学習データ記憶部14には、印象推定モデルを学習するための学習データを蓄積した学習データベースが記憶されている。学習データベースの例を表1に示す。学習データベースは、表1に示すように、データ番号j(j=0, 1, …, J-1)に対して学習データx(j)、印象値y(j)、および評価者番号i(j)が関連付けられている。ここで、Jは学習データの総数である。
Figure 0006856503
学習データx(j)は、画像や音声等のデータを示す。1つの学習データx(j)に対して複数の評価者が印象値を付与するため、学習データベース内には同じ値の学習データx(j)が複数存在する(例えば、表1のj=0とj=1、j=2とj=3とj=4等)。学習データx(j)は、例えば、画像データや音声データから抽出した公知の特徴量である。
印象値y(j)は、人手で付与した印象値、すなわち印象値の正解値である。印象値y(j)は、評価する段階数の次元を持つベクトルであり、評価した値の次元が1、それ以外の次元が0となるOne-hotなベクトルとなる。例えば、「明るさ」を「非常に暗い:1」「暗い:2」「普通:3」「明るい:4」「非常に明るい:5」の5段階で評価した場合、「非常に暗い:1」と評価した場合は[1, 0, 0, 0, 0]、「暗い:2」と評価した場合は[0, 1, 0, 0, 0]、「普通:3」と評価した場合は[0, 0, 1, 0, 0]、「明るい:4」と評価した場合は[0, 0, 0, 1, 0]、「非常に明るい:5」と評価した場合は[0, 0, 0, 0, 1]といったベクトルとなる。
評価者番号i(j)は、学習データx(j)に印象値y(j)を付与した評価者を示す識別子(ID)である。この評価者番号i(j)は、評価者傾向データ記憶部15に記憶されている評価者傾向データベースの評価者番号iと紐付く番号である。
通常の印象推定では、あるデータに対してすべての評価者が印象値を付与し、その平均値を学習データのラベルとして推定したり、不一致の印象値を排除したりして学習をする。しかし、現実的に全ての評価者が全データに対してラベルを付与し、かつ十分な学習データ量を得ることは莫大なコストが必要とされる。そこで本実施形態では、あるデータに対して1名以上の評価者が印象値を付与し、その評価者の傾向を補助情報として与えて学習を行う。これにより、あるデータについて全員の評価を必要とせずに、印象値を学習することができるようになる。
評価者傾向データ記憶部15には、印象推定モデルを学習する際に与える補助情報である評価者傾向を蓄積した評価者傾向データベースが記憶されている。評価者傾向データベースの例を表2に示す。評価者傾向データベースでは、評価者番号i(i=0, 1, …, I-1)に対して評価者傾向q(i, k)(k=0, 1, …, K-1)が関連付けられている。ここで、Iは評価者の総数、Kは評価値の種類の数である。
Figure 0006856503
評価者傾向q(i, k)は、評価者iが印象値をどの段階にどの程度付与しているか(言い換えると、評価者iにおける印象値k毎の出現確率)を表したベクトルである。例えば、「明るさ」を「非常に暗い:1」「暗い:2」「普通:3」「明るい:4」「非常に明るい:5」の5段階で評価した場合、i=0の評価者は「非常に暗い:1」の評価を1%、「暗い:2」の評価を2%、「普通:3」の評価を30%、「明るい:4」の評価を58%、「非常に明るい:5」の評価を9%の分布で評価しており、そのときの評価者傾向q(i, k)は[ 1%, 2%, 30%, 58%, 9%]といったベクトルとなる。
以下、図2を参照して、実施形態の印象推定モデル学習装置1が実行する印象推定モデル学習方法について説明する。
ステップS11において、印象推定部11−nは、印象推定モデル記憶部111−nに記憶された印象推定モデルnを用いて、学習データx(j)に対する印象値の事後確率p(j, n)を計算して出力する。印象推定モデルnは、入力されたデータから印象値の事後確率を推定するモデルであり、評価の傾向を学習したものである。例えば、ある印象を{4, 5}で評価する評価者のグループもいれば、{3, 4, 5}で評価する評価者のグループや、{1, 2, 3, 4, 5}で評価する評価者のグループもいる。このとき、印象推定部11−1は印象を{4, 5}で推定し、印象推定部11−2は印象を{3, 4, 5}で推定し、印象推定部11−3は印象を{1, 2, 3, 4, 5}で推定する、といったように、各印象推定部11−nは評価者のグループの傾向を反映した印象推定を行う。印象推定部11−nの数Nは、評価者傾向データベースを用いて、自動的にクラスタ数を決定するクラスタリングを行い、求められたクラスタ数をNとすればよい。自動的にクラスタ数を決定するクラスタリングとしては、参考文献1に記載されたX-means等を用いることができる。
〔参考文献1〕Dan Pelleg, Andrew W. Moore, "X-means: Extending K-means with Efficient Estimation of the Number of Clusters", ICML 2000, pp. 727-734, 2000.
なお、評価者傾向は
Figure 0006856503
が成り立つため、q(i, k)はディレクレ分布と同じ条件下(各次元の和が常に1)にある。参考文献1は、k-meansアルゴリズムによってクラスタを決定し、クラスタを増やすか否かを決定するベイズ情報量規準(BIC: Bayesian Information Criterion)の計算を、クラスタが正規分布に従うことを仮定して計算しているが、k-meansではなくk混合のディレクレ分布をEMアルゴリズムによってクラスタ数を求め、BICの計算も混合ディリクレ分布に基づいて計算することで、評価者傾向のグループ数をより厳密に求めることができる。
事後確率とは、学習データx(j)が各段階に推定される確率を示す。例えば、「明るさ」を上記の5段階で評価するときの事後確率がp(j, n)=[0.10, 0.20, 0.30, 0.25, 0.15]の場合、学習データx(j)は、「非常に暗い:1」の確率が0.1、「暗い:2」の確率が0.2、「普通:3」の確率が0.30、「明るい:4」の確率が0.25、「非常に明るい:5」の確率が0.15となる。
印象推定部11−nは、例えばニューラルネットワークやサポートベクターマシン(SVM: Support Vector Machine)等の一般的な機械学習の手法で推定することができる。この印象推定部11−nで用いる印象推定モデルnは、学習初期値ではパラメータをランダムに設定する。
ステップS12において、重み推定部12は、重み推定モデル記憶部16に記憶されている重み推定モデルを用いて、評価者傾向データ記憶部15に記憶された評価者傾向q(i, k)から重みα(j, n)を求める。重み推定モデルは、入力された評価者傾向から重みを推定するモデルである。この重みα(j, n)は、印象推定部11−1〜11−Nのうち、ある印象推定部11−nを最終的な推定結果としてどの程度考慮するかを表す割合の値である。重み推定部12も印象推定部11−nと同様に事後確率として重みα(j, n)を求めることができる。例えば、印象推定部11−1〜11−3において重みがα(j, 1)=0.1、α(j, 2)=0.6、α(j, 3)=0.3のとき、印象推定部11−1は10%、印象推定部11−2は60%、印象推定部11−3は30%の割合で、最終的な推定結果として考慮することとなる。
重み推定部12は、例えばニューラルネットワークやサポートベクターマシン等の一般的な機械学習の手法で推定することができる。この重み推定部12で用いる重み推定モデルは、学習初期値ではパラメータをランダムに設定する。
ステップS13において、モデル学習部13は、重み推定部12が出力する重みα(j, n)と印象推定部11−nが出力する事後確率p(j, n)と学習データ記憶部14に記憶されている学習データx(j)および印象値y(j)とを用いて、重み推定モデル記憶部16に記憶されている重み推定モデルと印象推定モデル記憶部111−nに記憶されている印象推定モデルnとを更新する。モデル学習部13は、重み推定モデル更新部131と印象推定モデル更新部132との両方を含んでおり、学習を繰り返す際に重み推定モデルと印象推定モデルnとを交互に更新していく。
ステップS131において、重み推定モデル更新部131は、事後確率p(j, n)を与えたときの重み推定モデルを更新する。重み推定モデルは、例えばニューラルネットワークやサポートベクターマシン等でモデル化している。学習データx(j)の印象値y(j)と事後確率p(j, n)の重み和
Figure 0006856503
との差分から重み推定モデルを更新する。重み推定モデルがニューラルネットワークの場合は、ニューラルネットワークの一般的な学習法(誤差伝搬法)から重み推定モデルを更新することができる。重み推定モデルがサポートベクターマシンの場合は、
Figure 0006856503
である印象推定モデル番号^nを求め、評価者傾向q(i(j), k)を入力として、印象推定モデル番号^nを推定できるようにサポートベクターマシンを学習する。
ステップS132において、印象推定モデル更新部132は、重みα(j, n)を与えたときに、印象推定モデルnを更新する。印象推定モデルnの更新は各モデルで一般的な方法で更新するが、各モデルの学習に用いるサンプルx[j], y[j]の学習の重みをα(j, n)で与えて学習する。
重み推定モデル更新部131と印象推定モデル更新部132とを交互に更新していくことで、印象の評価者傾向のグループが印象推定モデル1〜Nに自動的にクラスタリングされ、評価者の傾向ごとにどの印象推定モデルnを重点的に推定結果として反映するかを表す重みが学習されるようになる。推定時には、入力された評価者傾向に応じて、適切な印象推定部11−nが重みαで選択され、入力データに対する統合された事後確率が求められるようになる。
本実施形態では、重み推定モデル更新部131と印象推定モデル更新部132とを交互に更新していったが、両者ともニューラルネットワークでモデル化する際は、重み推定モデル更新部131と重み推定モデル記憶部16、印象推定モデル更新部132と印象推定モデル記憶部111−nを1つのニューラルネットワークで表現することができるため、y(j)とy'(j)との誤差の値から、同時に重み推定モデルと印象推定モデルとを更新することができるようになる。
<印象推定装置>
実施形態の印象推定装置2は、図3に示すように、N(≧2)個の印象推定部11−n(n=1, 2, …, N)と、重み推定部12と、重み推定モデル記憶部16と、推定値統合部17とを備える。各印象推定部11−nは、印象推定モデル記憶部111−nを備える。この印象推定装置2が、図4に例示する各ステップの処理を行うことにより実施形態の印象推定方法が実現される。
印象推定装置2は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。印象推定装置2は、例えば、中央演算処理装置の制御のもとで各処理を実行する。印象推定装置2に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。印象推定装置2の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。印象推定装置2が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。
印象推定モデル記憶部111−nには、印象推定モデル学習装置1により学習した印象推定モデルnが記憶されている。
重み推定モデル記憶部16には、印象推定モデル学習装置1により学習した重み推定モデルが記憶されている。
以下、図4を参照して、実施形態の印象推定装置2が実行する印象推定方法について説明する。
ステップS11において、印象推定部11−nは、印象推定モデル記憶部111−nに記憶された印象推定モデルnを用いて、入力データxに対する印象値の事後確率p(n)を計算して出力する。各印象推定部11−nが出力した印象値の事後確率p(n)は推定値統合部17へ入力される。
ステップS12において、重み推定部12は、重み推定モデル記憶部16に記憶されている重み推定モデルを用いて、入力された評価者傾向q(k)から重みα(n)を求める。重み推定部12が出力した重みα(n)は推定値統合部17へ入力される。
重み推定部12へ入力される評価者傾向q(k)は、任意の評価者傾向を与えることができる。例えば、ある実在の評価者の評価者傾向q(k)を与えれば、その評価者と同じ傾向にある評価者の印象値を推定することができる。また、人手で設定した仮想的な評価者の評価者傾向q(k)を与えれば、その仮想的な評価者による印象値をシミュレーションすることができる。さらに、評価者全体から算出した評価者傾向q(k)の平均値を与えれば、平均的な印象値を求めることも可能である。
ステップS17において、推定値統合部17は、印象推定部11−nから受け取った事後確率p(n)と重み推定部12から受け取った重みα(n)とを用いて次式を計算し、統合された事後確率yを計算する。
Figure 0006856503
推定値統合部17は、統合された事後確率から最も高い事後確率の次元を、推定する印象値cとして出力する。また、統合された事後確率y自体を印象値cとして用いることも可能である。
本実施形態では、印象推定の補助情報として評価者の評価者傾向q(k)を与えたが、その他の情報も補助情報として重み推定部12に与えることが可能である。例えば、予め定めた環境に関する情報を評価者の評価者傾向q(k)と組み合わせて補助情報として重み推定部12に与えてもよい。環境に関する情報とは、印象の評価に影響を与え得る環境に関する情報であり、例えば、コールセンターの録音音声からオペレータの印象(例えば、好感度、明るさ等)の自動推定を行う場合は、そのコールセンターの受付内容(例えば、故障受付、新規受付、解約受付、お客様相談等)やコールセンターの担当者のスキル(例えば、一次受付担当、スーパーバイザー等)によって印象の評価が異なる可能性があるため、コールセンターの受付内容やスキルの属性を表す値が想定される。また、画像の印象を評価する場面であれば周囲の明るさが評価に影響を与える可能性があるため、屋内か屋外かなどの評価を行う環境の属性を表す値などが想定される。すなわち、印象の評価に影響を与え得る環境に関する情報を補助情報として与えることで、環境による評価のブレを反映した印象推定を行うことが可能となる。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。
1 印象推定モデル学習装置
2 印象推定装置
11 印象推定部
111 印象推定モデル記憶部
12 重み推定部
13 モデル学習部
14 学習データ記憶部
15 評価者傾向データ記憶部
16 重み推定モデル記憶部
17 推定値統合部

Claims (8)

  1. 入力データの印象値を求めるために、評価者における印象値毎の出現確率を表す評価者傾向から重みを推定する重み推定モデルと、入力データから印象値の事後確率を推定する印象推定モデルと、を学習する印象推定モデル学習装置であって、
    上記入力データの印象値は、上記重み推定モデルが推定した重みにより上記印象推定モデルが推定した印象値の事後確率を重み付けした統合事後確率に基づいて求められるものであり、
    学習データとその学習データに付与された印象値の正解値とその印象値の正解値を与えた評価者とを関連付けた学習データベースを記憶する学習データ記憶部と、
    評価者と上記評価者傾向とを関連付けた評価者傾向データベースを記憶する評価者傾向データ記憶部と
    記評価者傾向を分類したグループ毎に上記印象推定モデルを用いて上記学習データから上記印象値の事後確率を推定する印象推定部と、
    上記重み推定モデルを用いて上記学習データに関連付けられた上記評価者傾向から上記重みを推定する重み推定部と、
    上記重みにより重み付けした上記印象値の事後確率と上記学習データに付与された上記印象値の正解値との差分から上記重み推定モデルを更新する重み推定モデル更新部と、
    上記印象値の事後確率から上記重みを学習重みとして上記印象推定モデルを更新する印象推定モデル更新部と、
    を含む印象推定モデル学習装置。
  2. 請求項1に記載の印象推定モデル学習装置であって、
    上記印象推定部は、上記評価者傾向データベースに基づいてクラスタ数を決定し、上記評価者傾向を上記クラスタ数に分類したグループ毎に上記印象推定モデルを用いて上記学習データから上記印象値の事後確率を推定するものである、
    印象推定モデル学習装置。
  3. 請求項1または2に記載の印象推定モデル学習装置であって、
    上記評価者傾向データベースは、上記評価者と上記評価者傾向と評価を行った環境に関する情報とを関連付けたものであり、
    上記重み推定モデルは、少なくとも上記環境に関する情報から上記重みを推定するものであり、
    上記重み推定部は、上記重み推定モデルを用いて少なくとも上記学習データに関連付けられた上記環境に関する情報から上記重みを推定するものである、
    印象推定モデル学習装置。
  4. 請求項1から3のいずれかに記載の印象推定モデル学習装置により学習した印象推定モデルを記憶する印象推定モデル記憶部と、
    請求項1から3のいずれかに記載の印象推定モデル学習装置により学習した重み推定モデルを記憶する重み推定モデル記憶部と、
    評価者における印象値毎の出現確率を表す評価者傾向を分類したグループ毎に上記印象推定モデルを用いて入力データから印象値の事後確率を推定する印象推定部と、
    上記重み推定モデルを用いて入力された評価者傾向から重みを推定する重み推定部と、
    上記重みにより重み付けした上記印象値の事後確率である統合事後確率に基づいて上記入力データの印象値を求める統合値推定部と、
    を含む印象推定装置。
  5. 請求項4に記載の印象推定装置であって、
    上記統合値推定部は、上記統合事後確率のうち値が最も高い次元を上記入力データの印象値として求めるものである、
    印象推定装置。
  6. 入力データの印象値を求めるために、評価者における印象値毎の出現確率を表す評価者傾向から重みを推定する重み推定モデルと、入力データから印象値の事後確率を推定する印象推定モデルと、を学習する印象推定モデル学習方法であって、
    上記入力データの印象値は、上記重み推定モデルが推定した重みにより上記印象推定モデルが推定した印象値の事後確率を重み付けした統合事後確率に基づいて求められるものであり、
    学習データ記憶部に、学習データとその学習データに付与された印象値の正解値とその印象値の正解値を与えた評価者とを関連付けた学習データベースが記憶されており、
    評価者傾向データ記憶部に、評価者と上記評価者傾向とを関連付けた評価者傾向データベースが記憶されており
    象推定部が、上記評価者傾向を分類したグループ毎に上記印象推定モデルを用いて上記学習データから上記印象値の事後確率を推定し、
    重み推定部が、上記重み推定モデルを用いて上記学習データに関連付けられた上記評価者傾向から上記重みを推定し、
    重み推定モデル更新部が、上記重みにより重み付けした上記印象値の事後確率と上記学習データに付与された上記印象値の正解値との差分から上記重み推定モデルを更新し、
    印象推定モデル更新部が、上記印象値の事後確率から上記重みを学習重みとして上記印象推定モデルを更新する、
    印象推定モデル学習方法。
  7. 印象推定モデル記憶部に、請求項6に記載の印象推定モデル学習方法により学習した印象推定モデルが記憶されており、
    重み推定モデル記憶部に、請求項6に記載の印象推定モデル学習方法により学習した重み推定モデルが記憶されており、
    印象推定部が、評価者における印象値毎の出現確率を表す評価者傾向を分類したグループ毎に上記印象推定モデルを用いて入力データから印象値の事後確率を推定し、
    重み推定部が、上記重み推定モデルを用いて入力された評価者傾向から重みを推定し、
    統合値推定部が、上記重みにより重み付けした上記印象値の事後確率である統合事後確率に基づいて上記入力データの印象値を求める、
    印象推定方法。
  8. 請求項1から3のいずれかに記載の印象推定モデル学習装置もしくは請求項4または5に記載の印象推定装置としてコンピュータを機能させるためのプログラム。
JP2017223599A 2017-11-21 2017-11-21 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム Active JP6856503B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017223599A JP6856503B2 (ja) 2017-11-21 2017-11-21 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017223599A JP6856503B2 (ja) 2017-11-21 2017-11-21 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019095968A JP2019095968A (ja) 2019-06-20
JP6856503B2 true JP6856503B2 (ja) 2021-04-07

Family

ID=66972991

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017223599A Active JP6856503B2 (ja) 2017-11-21 2017-11-21 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6856503B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7342491B2 (ja) * 2019-07-25 2023-09-12 オムロン株式会社 推論装置、推論方法、及び推論プログラム
JPWO2021019643A1 (ja) * 2019-07-29 2021-02-04
JP7396133B2 (ja) 2020-03-11 2023-12-12 オムロン株式会社 パラメータ調整装置、推論装置、パラメータ調整方法、及びパラメータ調整プログラム
JP7010337B2 (ja) * 2020-07-03 2022-01-26 楽天グループ株式会社 学習装置、推定装置、学習方法、推定方法、プログラム、及び学習済み推定モデルのプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4611938B2 (ja) * 2006-06-19 2011-01-12 日本電信電話株式会社 主観品質推定式導出方法、主観品質推定式導出装置及びその処理用プログラム
JP4524709B2 (ja) * 2007-12-03 2010-08-18 ソニー株式会社 情報処理装置および方法、並びに、プログラム
JP5353443B2 (ja) * 2009-05-25 2013-11-27 株式会社Jvcケンウッド データ分類器作成装置、データ分類装置、データ分類器作成方法、データ分類方法、データ分類器作成プログラム、データ分類プログラム
JP2016207171A (ja) * 2015-04-28 2016-12-08 日本電信電話株式会社 パラメータ推定方法、評価値推定方法、装置、及びプログラム

Also Published As

Publication number Publication date
JP2019095968A (ja) 2019-06-20

Similar Documents

Publication Publication Date Title
JP6856503B2 (ja) 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム
CN112346567B (zh) 基于ai的虚拟交互模型生成方法、装置及计算机设备
US11144581B2 (en) Verifying and correcting training data for text classification
CN109815459A (zh) 生成被调整到目标受众词汇的文本内容的目标概要
US10395646B2 (en) Two-stage training of a spoken dialogue system
Tripathi et al. Naive Bayes classification model for the student performance prediction
JP7208595B2 (ja) 映画成功指数の予測
CN111328407A (zh) 用于基于学习效率提供私人定制教育内容的机械学习方法、装置及计算机程序
CN110415103A (zh) 基于变量影响度指标进行用户分群提额的方法、装置和电子设备
KR20200107389A (ko) 생성적 적대 신경망에 기반한 평점 증강 및 아이템 추천 방법 및 시스템
CN110349007A (zh) 基于变量区分度指标进行用户分群提额的方法、装置和电子设备
JP2020144569A (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
US20240112229A1 (en) Facilitating responding to multiple product or service reviews associated with multiple sources
CN111783873A (zh) 基于增量朴素贝叶斯模型的用户画像方法及装置
US20200272961A1 (en) Information processing apparatus, information processing method, and storage medium
CN115374259A (zh) 一种问答数据挖掘方法、装置及电子设备
WO2021174814A1 (zh) 众包任务的答案验证方法、装置、计算机设备及存储介质
US20230334342A1 (en) Non-transitory computer-readable recording medium storing rule update program, rule update method, and rule update device
CN113763928A (zh) 音频类别预测方法、装置、存储介质及电子设备
JP2010272004A (ja) 判別装置及び判別方法、並びにコンピューター・プログラム
US20220292393A1 (en) Utilizing machine learning models to generate initiative plans
WO2020166321A1 (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
JP7099254B2 (ja) 学習方法、学習プログラム及び学習装置
CN113590754A (zh) 应用于社群互动的大数据分析方法及大数据分析服务器
CN113807749B (zh) 一种对象评分方法和装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200930

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210318

R150 Certificate of patent or registration of utility model

Ref document number: 6856503

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150