JP7315091B2 - モデル学習装置、その方法、およびプログラム - Google Patents

モデル学習装置、その方法、およびプログラム Download PDF

Info

Publication number
JP7315091B2
JP7315091B2 JP2022507952A JP2022507952A JP7315091B2 JP 7315091 B2 JP7315091 B2 JP 7315091B2 JP 2022507952 A JP2022507952 A JP 2022507952A JP 2022507952 A JP2022507952 A JP 2022507952A JP 7315091 B2 JP7315091 B2 JP 7315091B2
Authority
JP
Japan
Prior art keywords
label
data
expert
probability
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022507952A
Other languages
English (en)
Other versions
JPWO2021186662A1 (ja
Inventor
歩相名 神山
佑樹 北岸
厚志 安藤
亮 増村
岳至 森
哲 小橋川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021186662A1 publication Critical patent/JPWO2021186662A1/ja
Application granted granted Critical
Publication of JP7315091B2 publication Critical patent/JP7315091B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N99/00Subject matter not provided for in other groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Machine Translation (AREA)
  • Complex Calculations (AREA)

Description

本発明は、印象ラベルなどのラベルの推定技術に関する。
電話音声の好感度(非特許文献1)や、外国語の発音の良さおよび流暢さ(非特許文献2)等を技能テストの1項目として会話の技能を図るテストでは、音声に対して定量的な印象値が付与されている。印象の評価には、例えば、印象が「良い」~「悪い」の5段階評価、好感度が「高い」~「低い」の5段階評価、自然さが「高い」~「低い」の5段階評価等がある。
現在は、各技能の専門家がこの音声の印象を評価し、合格・不合格の判定を行っているが、自動的に評価ができるようになると、試験の足切り等への活用や、評価に不慣れな専門家(例えば評価者になりたての人物)への参考値として用いることができる。そのため、音声の印象を自動推定する技術が必要とされている。
機械学習を用いたデータの印象の自動推定を実現するためには、印象値データとそのデータの特徴量とから機械学習モデルを学習すればよい。しかし、印象は人によって感じる基準が異なったり、印象を付与することに慣れていなかったりするために、同じデータであっても印象値が人によって異なることがある。平均的な印象を推定できるようにするためには、1つのデータに対して多人数で印象値を付与し、印象値の平均値を用いる必要がある。平均的な印象値を安定して推定できるようになるには、できるだけ多人数で印象値を付与するとよい。例えば、非特許文献3で作成された印象データは、1音声データに対し10名で印象値を付与している。
F. Burkhardt, B. Schuller, B. Weiss and F. Weninger, "Would You Buy a Car From Me?" On the Likability of Telephone Voices", In Proc. INTERSPEECH, pp.1557-1560, 2011. Kei Ohta and Seiichi Nakagawa, "A statistical method of evaluating pronunciation proficiency for Japanese words", INTERSPEECH2005, pp.2233-2236. 籠宮隆之ら、「印象評定データの概要」, [online], [令和2年3月5日検索], インターネット<URL: http://pj.ninjal.ac.jp/corpus_center/csj/manu-f/impression.pdf>
実運用上では、人数制約により1データに対して大量の印象値を付与するのは困難である。そこで、多人数でいくつかのデータを分散して印象値を付与する(以下、印象値を付与する人を「評価者」ともいう)。そのため、1つのデータに対して印象値を付与する人数は高々1・2名程度となる。この状況において、音声の印象推定を品質よく実現するためには、印象を正しく判断できる専門家ができるだけ多くのデータに対して印象ラベルを付与する必要がある。しかし、専門家のラベル付与はコストが高いため、全てのデータに対して印象ラベルを付与することは困難である。
本発明は、全てのデータに対して専門家がラベルを付与するのではなく、一部のデータに対してのみ専門家がラベルを付与し、残りのデータに対して非専門家がラベルを付与し、専門家と非専門家とのラベル付与の精度の差を考慮して、モデルを学習するモデル学習装置、その方法、およびプログラムを提供することを目的とする。ここでは、非専門家は、専門家よりもラベル付与の精度が低い評価者とする。以下では、非専門家が付与したラベルを非専門家ラベルともいい、専門家が付与したラベルを専門家ラベルともいう。
上記の課題を解決するために、本発明の一態様によれば、モデル学習装置は、学習ラベルデータには、データ番号i(i=1,…,L)に対して、学習特徴量データのデータ番号y(i,0)を示すデータ番号j∈{1,…,J}と、学習特徴量データに対応するデータにラベルを付与した評価者の番号y(i,1)を示す評価者番号k∈{1,…,K}と、学習特徴量データに対応するデータに対して付与されたラベルy(i,2)を示すラベルc∈{1,…,C}と、評価者が学習特徴量データに対応するデータにラベルを付与する専門家か否かを示すフラグy(i,3)である専門フラグfとが存在し、専門家の評価者がラベルを付与したデータの集合を用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cを求める専門家確率ラベル取得部と、専門家または非専門家の評価者がラベルを付与したデータの集合と専門家確率ラベル取得部で求めた確率hj,cとを用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cを求める確率ラベル取得部と、確率ラベル取得部で求めた確率hj,cと、確率ラベル取得部で求めた確率hj,cに対応する学習特徴量データjとを用いて、特徴量データを入力とし、ラベルを出力するモデルを学習する学習部とを含む。
本発明によれば、専門家と非専門家とのラベル付与の精度の差を考慮することで、より推定精度の高いモデルを学習することができるという効果を奏する。
第一実施形態に係るモデル学習装置の機能ブロック図。 第一実施形態に係るモデル学習装置の処理フローの例を示す図。 学習ラベルデータの例を示す図。 学習特徴量データの例を示す図。 第一実施形態に係るラベル推定装置の機能ブロック図。 第一実施形態に係るラベル推定装置の処理フローの例を示す図。 本手法を適用するコンピュータの構成例を示す図。
以下、本発明の実施形態について、説明する。なお、以下の説明に用いる図面では、同じ機能を持つ構成部や同じ処理を行うステップには同一の符号を記し、重複説明を省略する。以下の説明において、テキスト中で使用する記号「^」等は、本来直前の文字の真上に記載されるべきものであるが、テキスト記法の制限により、当該文字の直後に記載する。式中においてはこれらの記号は本来の位置に記述している。また、ベクトルや行列の各要素単位で行われる処理は、特に断りが無い限り、そのベクトルやその行列の全ての要素に対して適用されるものとする。
<第一実施形態のポイント>
本実施形態では、まず、専門家ラベルのみを利用してモデルを学習し、学習したモデルと専門家ラベルと非専門家ラベルとを利用してさらにモデルを学習する。
<第一実施形態に係るラベル推定システム>
本実施形態のラベル推定システムはモデル学習装置100とラベル推定装置200とを含む。
モデル学習装置およびラベル推定装置は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。モデル学習装置およびラベル推定装置は、例えば、中央演算処理装置の制御のもとで各処理を実行する。モデル学習装置およびラベル推定装置に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて中央演算処理装置へ読み出されて他の処理に利用される。モデル学習装置およびラベル推定装置の各処理部は、少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。モデル学習装置およびラベル推定装置が備える各記憶部は、例えば、RAM(Random Access Memory)などの主記憶装置、またはリレーショナルデータベースやキーバリューストアなどのミドルウェアにより構成することができる。ただし、各記憶部は、必ずしもモデル学習装置およびラベル推定装置がその内部に備える必要はなく、ハードディスクや光ディスクもしくはフラッシュメモリ(Flash Memory)のような半導体メモリ素子により構成される補助記憶装置により構成し、モデル学習装置およびラベル推定装置の外部に備える構成としてもよい。
<第一実施形態に係るモデル学習装置100>
図1は第一実施形態に係るモデル学習装置100の機能ブロック図を、図2はその処理フローを示す。
モデル学習装置100は、ラベル推定部110と、学習部120とを含む。ラベル推定部110は、初期値設定部111と、専門家確率ラベル取得部112と、確率ラベル取得部113とを含む。専門家確率ラベル取得部112は、専門家スキル推定部112Aと専門家確率ラベル推定部112Bとを含む。確率ラベル取得部113は、スキル推定部113Aと確率ラベル推定部113Bとを含む。
モデル学習装置100は、学習ラベルデータの集合Aと、学習ラベルデータの集合Aに対応する学習特徴量データとを入力とし、ラベル推定モデルを学習し、学習済みのラベル推定モデルを出力する。本実施形態では、学習済みのラベル推定モデルのパラメタλを出力する。
(学習ラベルデータおよび学習特徴量データ)
図3は学習ラベルデータの例を、図4は学習特徴量データの例を示す。学習ラベルデータには、学習ラベルデータのデータ番号i(i=1,…,L)に対して、学習特徴量データのデータ番号y(i,0)、評価者番号y(i,1)、印象ラベルy(i,2)、専門フラグy(i,3)が存在する。学習特徴量データのデータ番号y(i,0)はj∈{1,…,J}である。また、評価者番号y(i,1)はその学習特徴量データに対応するデータを評価した評価者の番号k∈{1,…,K}である。印象値ラベルy(i,2)は、その学習特徴量データに対応するデータに対する印象の値c∈{1,…,C}である。別の言い方をすると、印象値ラベルy(i,2)は、データに対して評価者が付与した印象の値である。専門フラグy(i,3)は、当該評価者(評価者番号y(i,1)に対応する評価者)が専門家か否かを示すフラグf∈{0,1}である。本実施形態では、y(i,3)=1の場合当該評価者y(i,1)は専門家、y(i,3)=0の場合当該評価者y(i,1)は非専門家とする。学習ラベルデータは、図3のように1つの学習特徴量データに対応するデータに対して一人以上の評価者により、1つ以上の印象ラベルが付与されているものとする。i番目の学習ラベルデータA(i)=A(j,k,c,f)から、ある学習特徴量データx(j)に対応するデータに対して、フラグfにより示される専門家または非専門家である評価者kが印象ラベルcを付与したことが分かる。
学習特徴量データは、データ番号j(j=1,…,J)に対応するデータx(j)となる。例えば、「学習特徴量データ」は音声信号から特徴を抽出したベクトル(音響特徴ベクトル)等の値であり(図4参照)、「学習特徴量データに対応するデータ」は学習特徴量データの抽出元である音声信号である。なお、学習特徴量データを音声信号自体とし、「学習特徴量データ」=「学習特徴量データに対応するデータ」としてもよい。以下では、「学習特徴量データx(j)に対応するデータ」を単に「学習特徴量データj」ともいう。
以下、各部について説明する。
<ラベル推定部110>
ラベル推定部110は、学習ラベルデータの集合Aを入力とし、評価者が正しく評価できる能力、およびそれに基づく真のラベルの確率hj,cを求め(S110)、出力する。なお、確率hj,cは、学習特徴量データj(j=1,…,J)の真のラベルがラベルc(c=1,…,C)である確率を表す。
ここでは、学習ラベルデータで付与されている印象ラベルには、学習特徴量データjに対する真のラベルcjがあると仮定する。また、評価者ごとにラベルを付与する能力が異なり、評価者kが真のラベルがcであったときに、正しくc'と答える確率ak,c,c'を導入する。
EMアルゴリズムで真のラベルと評価者の能力を推定し、最適なラベルの確率hj,cを学習部120に出力する。ここでは、データ番号j、評価者番号k、印象ラベルc、専門フラグfの学習ラベルデータを検索する集合A、およびそのデータの数を示すNを次のように定義する。
Figure 0007315091000001
なお、*は、任意を示すシンボルとしている。
本実施形態では、予め専門家の学習ラベルデータの集合(専門家の評価者がラベルを付与したデータの集合)A(*,*,*,1)で確率hj,cを求めておくことで、非専門家のスキルに対応する確率ak,c,c’が専門家の学習ラベルデータの集合A(*,*,*,1)に基づいて評価されるため、全ての学習ラベルデータの集合(専門家または非専門家の評価者がラベルを付与したデータの集合)A(*,*,*,*)の確率hj,cを専門家の基準に基づいて求めることができる。
なお、ラベル推定部110は、所定の条件を満たした場合に、モデル学習を終了する。例えば、更新前後の確率hj,cの差分が、予め設定した閾値δを全ての特徴量データj、印象ラベルcで下回った場合に、終了とする。
<初期値設定部111>
初期値設定部111は、専門家f=1の評価者kがラベルを付与したデータの集合(専門家の学習ラベルデータの集合A(*,*,*,1))を入力とし、これを用いて、学習特徴量データjに対する真のラベルがラベルcである確率hj,cの初期値を設定し(S111)、出力する。
例えば、専門家f=1の評価者kが付与しているデータj(j=1,…,J)の全てのラベルc(c=1,…,C)について、次のように真のラベルがラベルcである確率hj,cのEMアルゴリズムの初期値を設定する。
Figure 0007315091000002
確率hj,cは、学習特徴量データjがラベルcである確率値となる。
<専門家確率ラベル取得部112>
専門家確率ラベル取得部112は、専門家の学習ラベルデータの集合A(*,*,*,1)と、確率hj,cの初期値を入力とし、これらの値を用いて、EMアルゴリズムにより、学習特徴量データjに対する真のラベルがラベルcである確率hj,cを求め(S112)、出力する。
以下、専門家確率ラベル取得部112に含まれる専門家スキル推定部112Aにおける処理(EMアルゴリズムのMステップに対応する処理)および専門家確率ラベル推定部112Bにおける処理(EMアルゴリズムのEステップに対応する処理)について説明する。
<専門家スキル推定部112A>
専門家スキル推定部112Aは、専門家の学習ラベルデータの集合A(*,*,*,1)と、確率hj,cの初期値またはEMアルゴリズムの一つ前の繰り返し処理で求めた確率hj,cとを入力とし、これらの値を用いて、専門家f=1の評価者kが学習特徴量データに対する真のラベルがcであるときにラベルc'と回答する確率ak,c,c'と、全てのラベル1,…,Cについて各ラベルcの分布qcとを求め(S112A)、出力する。例えば、確率ak,c,c'、分布qcを以下の式により求める。
Figure 0007315091000003
Figure 0007315091000004
<専門家確率ラベル推定部112B>
専門家確率ラベル推定部112Bは、専門家の学習ラベルデータの集合A(*,*,*,1)と専門家スキル推定部112Aで求めた確率ak,c,c'と分布qcとを入力とし、これらの値を用いて、学習特徴量データjおよびラベルc毎の値Qj,cを求め、値Qj,cを用いて確率hj,cを更新し(S112B-1)、出力する。例えば、値Qj,c、確率hj,cを以下の式により求める。
Figure 0007315091000005
Figure 0007315091000006
専門家確率ラベル推定部112Bは、確率hj,cの値が収束したか否かを判定し(S112B-2)、収束した場合には(S112B-2のyes)、更新処理を終了し、終了時点の確率hj,cを出力する。収束していない場合には(S112B-2のno)、専門家スキル推定部112Aに更新後の確率hj,cと処理を繰り返すことを示す制御信号を出力する。例えば、全ての学習特徴量データjおよびラベルcにおいて、更新前後の確率hj,cの差分が、所定の閾値δよりも小さい場合、または、所定の閾値δ以下の場合、収束したと判定し、それ以外の場合、収束していないと判定する。また、例えば、繰り返し処理の回数が所定の回数よりも大きくなった場合、収束したと判定し、それ以外の場合、収束していないと判定する。
<確率ラベル取得部113>
確率ラベル取得部113は、専門家または非専門家の評価者がラベルを付与したデータの集合A(*,*,*,*)と専門家確率ラベル取得部112で求めた確率hj,cとを入力とし、これらの値を用いて、EMアルゴリズムにより、学習特徴量データjに対する真のラベルがラベルcである確率hj,cを求め(S113)、出力する。
以下、確率ラベル取得部113に含まれるスキル推定部113Aにおける処理(EMアルゴリズムのMステップに対応する処理)および確率ラベル推定部113Bにおける処理(EMアルゴリズムのEステップに対応する処理)について説明する。
<スキル推定部113A>
スキル推定部113Aは、専門家または非専門家の評価者がラベルを付与したデータの集合A(*,*,*,*)と、専門家確率ラベル取得部112またはEMアルゴリズムの一つ前の繰り返し処理で求めた確率hj,cとを入力とし、これらの値を用いて、専門家または非専門家の評価者kが学習特徴量データに対する真のラベルがcであるときにラベルc'と回答する確率ak,c,c'と、全てのラベル1,…,Cについて各ラベルcの分布qcとを求め(S113A)、出力する。例えば、確率ak,c,c'、分布qcを以下の式により求める。
Figure 0007315091000007
Figure 0007315091000008
<確率ラベル推定部113B>
確率ラベル推定部113Bは、専門家または非専門家の評価者がラベルを付与したデータの集合A(*,*,*,*)と、スキル推定部113Aで求めた確率ak,c,c'と分布qcとを入力とし、これらの値を用いて、学習特徴量データjおよびラベルc毎の値Qj,cを求め、値Qj,cを用いて確率hj,cを更新し(S113B-1)、出力する。例えば、値Qj,c、確率hj,cを以下の式により求める。
Figure 0007315091000009
Figure 0007315091000010
確率ラベル推定部113Bは、確率hj,cの値が収束したか否かを判定し(S113B-2)、収束した場合には(S113B-2のyes)、更新処理を終了し、終了時点の確率hj,cを出力する。収束していない場合には(S113B-2のno)、スキル推定部113Aに更新後の確率hj,cと処理を繰り返すことを示す制御信号を出力する。判定方法は、例えば、専門家確率ラベル推定部112Bで説明した方法と同様とする。
<学習部120>
学習部120は、確率ラベル取得部113で求めた確率hj,cと、確率ラベル取得部113で求めた確率hj,cに対応する学習特徴量データx(j)とを入力とし、これらの値を用いて、特徴量データを入力とし、ラベルを出力するモデルを学習し(S120)、学習済みのラベル推定モデルを出力する。
本実施形態では、確率ラベル取得部113で求めた確率hj,cをターゲットとして、ラベル推定モデルを学習する。
例えば、モデルがニューラルネットワークの場合は、交差エントロピー誤差を最小化するように学習する際は、次のように誤差を与えればよい。
Figure 0007315091000011
ただし、y^(j)はニューラルネットワークモデルの推定値y^(j)=f(x(j))であり、誤差関数Eを最小化するようにモデルfのパラメタλを更新していく。
また、SVMで学習する場合は、例えば同じデータx(j)に対してラベルcの数だけ学習データを増やしそれぞれサンプル重みhj,cを重みづけして学習をすればよい。
例えば、学習部120は、学習済みのラベル推定モデルfのパラメタλを出力する。
次に、ラベル推定装置200について説明する。
<第一実施形態に係るラベル推定装置200>
図5は第一実施形態に係るラベル推定装置200の機能ブロック図を、図6はその処理フローを示す。
ラベル推定装置200は、推定部220を含む。
ラベル推定装置200の推定部220は、ラベル推定処理に先立ち、学習済みのラベル推定モデルfのパラメタλを受け取っておく。
ラベル推定装置200の推定部220は、ラベル付与対象特徴量データx(p)を入力とし、学習済みのパラメタλおよびラベル推定モデルfを用いて、ラベル付与対象データに対するラベルを推定し(S220)、推定結果label(p)を出力する。なお、ラベル付与対象データは、ラベル付与対象特徴量データの抽出元となるデータである。
<効果>
本実施形態のモデル学習装置では、専門家と非専門家とのラベル付与の精度の差を考慮することで、より推定精度の高いモデルを学習することができる。そのモデルを用いることで、本実施形態のラベル推定装置は、精度よくラベルを推定することができる。
<変形例>
本実施形態では、学習特徴量データおよびラベル付与対象特徴量データを入力としているが、これらの特徴量の抽出元となるデータを入力としてもよい。その場合、データから特徴量を抽出する機能を有する特徴量抽出部を設ければよい。
本実施形態では、印象ラベルの例を示したが、ラベルを付与する評価者を専門家、非専門家に分けることができれば、他のラベルに適用することができる。
<その他の変形例>
本発明は上記の実施形態及び変形例に限定されるものではない。例えば、上述の各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。その他、本発明の趣旨を逸脱しない範囲で適宜変更が可能である。
<プログラム及び記録媒体>
上述の各種の処理は、図7に示すコンピュータの記憶部2020に、上記方法の各ステップを実行させるプログラムを読み込ませ、制御部2010、入力部2030、出力部2040などに動作させることで実施できる。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記録媒体に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (5)

  1. 学習ラベルデータには、データ番号i(i=1,…,L)に対して、学習特徴量データのデータ番号y(i,0)を示すデータ番号j∈{1,…,J}と、学習特徴量データに対応するデータにラベルを付与した評価者の番号y(i,1)を示す評価者番号k∈{1,…,K}と、学習特徴量データに対応するデータに対して付与されたラベルy(i,2)を示すラベルc∈{1,…,C}と、評価者が学習特徴量データに対応するデータにラベルを付与する専門家か否かを示すフラグy(i,3)である専門フラグfとが存在し、
    専門家の評価者がラベルを付与したデータの集合を用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cを求める専門家確率ラベル取得部と、
    専門家または非専門家の評価者がラベルを付与したデータの集合と前記専門家確率ラベル取得部で求めた前記確率hj,cとを用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cを求める確率ラベル取得部と、
    前記確率ラベル取得部で求めた前記確率hj,cと、前記確率ラベル取得部で求めた前記確率hj,cに対応する学習特徴量データjとを用いて、特徴量データを入力とし、ラベルを出力するモデルを学習する学習部とを含む、
    モデル学習装置。
  2. 請求項1のモデル学習装置であって、
    前記専門家確率ラベル取得部は、
    専門家の評価者kが学習特徴量データに対応するデータに対する真のラベルがcであるときにラベルc'と回答する確率ak,c,c'と、全てのラベル1,…,Cについて各ラベルcの分布qcとを求める専門家スキル推定部と、
    前記専門家スキル推定部で求めた前記確率ak,c,c'と前記分布qcとを用いて、学習特徴量データjおよびラベルc毎の値Qj,cを求め、前記値Qj,cを用いて前記確率hj,cを更新する専門家確率ラベル推定部とを含み、
    前記確率ラベル取得部は、
    専門家または非専門家の評価者kが学習特徴量データに対応するデータに対する真のラベルがcであるときにラベルc'と回答する確率ak,c,c'と、全てのラベル1,…,Cについて各ラベルcの分布qcとを求めるスキル推定部と、
    前記スキル推定部で求めた前記確率ak,c,c'と前記分布qcとを用いて、学習特徴量データjおよびラベルc毎の値Qj,cを求め、前記値Qj,cを用いて前記確率hj,cを更新する確率ラベル推定部とを含む、
    モデル学習装置。
  3. 請求項1または請求項2のモデル学習装置であって、
    専門家の評価者がラベルを付与したデータの集合を用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cの初期値を設定する初期値設定部を含む、
    モデル学習装置。
  4. モデル学習装置を用いたモデル学習方法であって、
    学習ラベルデータには、データ番号i(i=1,…,L)に対して、学習特徴量データのデータ番号y(i,0)を示すデータ番号j∈{1,…,J}と、学習特徴量データに対応するデータにラベルを付与した評価者の番号y(i,1)を示す評価者番号k∈{1,…,K}と、学習特徴量データに対応するデータに対して付与されたラベルy(i,2)を示すラベルc∈{1,…,C}と、評価者が学習特徴量データに対応するデータにラベルを付与する専門家か否かを示すフラグy(i,3)である専門フラグfとが存在し、
    専門家の評価者がラベルを付与したデータの集合を用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cを求める専門家確率ラベル取得ステップと、
    専門家または非専門家の評価者がラベルを付与したデータの集合と前記専門家確率ラベル取得ステップで求めた前記確率hj,cとを用いて、学習特徴量データjに対応するデータに対する真のラベルがラベルcである確率hj,cを求める確率ラベル取得ステップと、
    前記確率ラベル取得ステップで求めた前記確率hj,cと、前記確率ラベル取得ステップで求めた前記確率hj,cに対応する学習特徴量データjとを用いて、特徴量データを入力とし、ラベルを出力するモデルを学習する学習ステップとを含む、
    モデル学習方法。
  5. 請求項1から請求項3の何れかのモデル学習装置としてコンピュータを機能させるためのプログラム。
JP2022507952A 2020-03-19 2020-03-19 モデル学習装置、その方法、およびプログラム Active JP7315091B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/012231 WO2021186662A1 (ja) 2020-03-19 2020-03-19 モデル学習装置、その方法、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2021186662A1 JPWO2021186662A1 (ja) 2021-09-23
JP7315091B2 true JP7315091B2 (ja) 2023-07-26

Family

ID=77771945

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022507952A Active JP7315091B2 (ja) 2020-03-19 2020-03-19 モデル学習装置、その方法、およびプログラム

Country Status (3)

Country Link
US (1) US20230206118A1 (ja)
JP (1) JP7315091B2 (ja)
WO (1) WO2021186662A1 (ja)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282686A (ja) 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009282686A (ja) 2008-05-21 2009-12-03 Toshiba Corp 分類モデル学習装置および分類モデル学習方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KAJINO, Hiroshi, et al.,"Learning from Crowds and Experts",Human Computation AAAI Technical Report WS-12-08,Association for the Advancement of Artificial Inte,2012年07月15日,Pages 107-113,[online], [retrieved on 2020.07.22], Retrieved from the Internet: <URL: https://www.aaai.org/ocs/ind

Also Published As

Publication number Publication date
WO2021186662A1 (ja) 2021-09-23
US20230206118A1 (en) 2023-06-29
JPWO2021186662A1 (ja) 2021-09-23

Similar Documents

Publication Publication Date Title
US10747962B1 (en) Artificial intelligence system using phrase tables to evaluate and improve neural network based machine translation
JP7222274B2 (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
US20190244604A1 (en) Model learning device, method therefor, and program
CN110717039A (zh) 文本分类方法和装置、电子设备、计算机可读存储介质
US20220092416A1 (en) Neural architecture search through a graph search space
CN116909532B (zh) 一种代码生成与缺陷修复方法和装置
US20220351634A1 (en) Question answering systems
US11182665B2 (en) Recurrent neural network processing pooling operation
US20240320081A1 (en) Root cause pattern recognition based model training
CN112084301A (zh) 文本修正模型的训练方法及装置、文本修正方法及装置
JP6230987B2 (ja) 言語モデル作成装置、言語モデル作成方法、プログラム、および記録媒体
KR20240034804A (ko) 자동 회귀 언어 모델 신경망을 사용하여 출력 시퀀스 평가
WO2021147405A1 (zh) 客服语句质检方法及相关设备
CN111737417B (zh) 修正自然语言生成结果的方法和装置
US20220013136A1 (en) Language model score calculation apparatus, language model generation apparatus, methods therefor, program, and recording medium
JP7315091B2 (ja) モデル学習装置、その方法、およびプログラム
US10970490B2 (en) Automatic evaluation of artificial intelligence-based processes
US20230186155A1 (en) Machine learning method and information processing device
JP7298174B2 (ja) モデル学習装置、ラベル推定装置、それらの方法、およびプログラム
JP2019211627A (ja) モデル学習装置、方法及びプログラム
KR102329611B1 (ko) 교육적 요소를 예측하는 사전학습 모델링 시스템 및 방법
CN114358284A (zh) 一种基于类别信息对神经网络分步训练的方法、装置、介质
CN114036956A (zh) 一种旅游知识语义分析方法及装置
JP2020140674A (ja) 回答選択装置及びプログラム
JP7283548B2 (ja) 学習装置、予測システム、方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220615

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230626

R150 Certificate of patent or registration of utility model

Ref document number: 7315091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150