JP7222274B2 - モデル学習装置、ラベル推定装置、それらの方法、およびプログラム - Google Patents
モデル学習装置、ラベル推定装置、それらの方法、およびプログラム Download PDFInfo
- Publication number
- JP7222274B2 JP7222274B2 JP2019040240A JP2019040240A JP7222274B2 JP 7222274 B2 JP7222274 B2 JP 7222274B2 JP 2019040240 A JP2019040240 A JP 2019040240A JP 2019040240 A JP2019040240 A JP 2019040240A JP 7222274 B2 JP7222274 B2 JP 7222274B2
- Authority
- JP
- Japan
- Prior art keywords
- label
- data
- learning
- feature data
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Mathematical Analysis (AREA)
- Computational Mathematics (AREA)
- Algebra (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
[第1実施形態]
まず本発明の第1実施形態を説明する。
<構成>
図1に例示するように、本実施形態のモデル学習装置1は、学習用ラベルデータ記憶部111、学習用特徴データ記憶部112、能力データ記憶部113、評価ラベル推定部114、観測ラベル推定部115、誤差評価部116、能力学習部117、推定モデル学習部118、および制御部119を有する。ここで、能力データ記憶部113、評価ラベル推定部114、観測ラベル推定部115、誤差評価部116、能力学習部117、推定モデル学習部118、および制御部119が更新部に相当する。図6に例示するように、本実施形態のラベル推定装置12は、モデル記憶部131、および推定部122を有する。
モデル学習装置11によるモデル学習処理の前処理として、学習用ラベルデータが学習用ラベルデータ記憶部111に格納され、学習用特徴データが学習用特徴データ記憶部112に格納され、能力データが能力データ記憶部113に格納される。学習用ラベルデータは、複数の評価者それぞれが複数の学習用特徴データそれぞれに付与したラベルの値を表すラベルデータ(評価者が学習用特徴データに付与したラベルを表すラベルデータ)を含む。ラベルは、学習用特徴データに対応する「ヒトが知覚可能な情報(例えば、音声、楽曲、テキスト、画像、動画など)」を知覚した評価者が自らの判断でその学習用特徴データに対して付与した正解ラベルである。ラベルの値は、数値であってもよいし、アルファベットその他の記号であってもよい。例えば、ラベルは、学習用特徴データに対応する「ヒトが知覚可能な情報」を知覚した評価者がその情報を評価して付与した評価結果を表す数値(例えば、印象を表す数値)である。学習用特徴データは学習用の特徴データである。特徴データはヒトが知覚可能な情報を表すデータ(例えば、音声データ、楽曲データ、テキストデータ、画像データ、動画データなど)であってもよいし、このようなヒトが知覚可能な情報の特徴を表すデータ(例えば、特徴量のデータ)であってもよい。能力データは、複数の評価者それぞれが特徴データに対して正しいラベルを付与する確率および誤ったラベルを付与する確率を表すデータである。例えば、能力データは、数値やアルファベットその他の記号の集合であってもよいし、確率密度関数等の関数であってもよい。
図2に学習用ラベルデータの例を、図3に学習用特徴データの例を、図4に能力データの例をそれぞれ示す。ただし、これらは一例であって本発明を限定するものではない。
図2に例示する学習用ラベルデータは、ラベルデータ番号i、評価者番号k(i)、およびラベルデータy(i)を含む。評価者番号k(i)およびラベルデータy(i)はラベルデータ番号iに対応付けられている。ここで、ラベルデータ番号i∈{1,…,I}は、各学習用特徴データとそれにラベルを付与した評価者との組(すなわち、各学習用特徴データとそれを評価した評価者との組)を識別する番号である。一つの学習用特徴データに対して単数の評価者がラベルを付与する場合もあるし、同じ学習用特徴データに対して複数の評価者がラベルを付与する場合もある。学習用特徴データが同一であっても評価者が異なれば、それらの組に対応するラベルデータ番号iは異なる。Iは2以上の整数である。評価者番号k(i)∈{1,…,K}は複数の評価者のそれぞれを識別する番号であり、各評価者番号k(i)は各評価者と一対一で対応する。Kは2以上の整数である。ラベルデータy(i)∈{1,…,C}は、ラベルデータ番号iに対応する評価者がラベルデータ番号iに対応する学習用特徴データx(i)に付与したラベルを表す。Cは2以上の整数である。
図3に例示するラベルデータ番号i∈{1,…,I}に対応する学習用特徴データx(i)は、それぞれに対応するラベルデータ番号i∈{1,…,I}に対応付けられている。図3に例示する学習用特徴データx(i)は、例えば、音声信号や音声信号から抽出された特徴を要素とするベクトル等の特徴量である。前述のように、同じ学習用特徴データに対して2名以上の評価者がラベルを付する場合があり、そのような場合には全く同じ学習用特徴データが互いに異なるラベルデータ番号iで識別される。例えば、図3のx(1)およびx(2)は内容としては全く同一の学習用特徴データであるが、互いに異なる評価者番号k(1),k(2)に対応する2名の評価者がラベルを付しているため、互いに異なるラベルデータ番号i=1,2で識別される。
図4に例示する能力データa(k,c,c’)は、評価者番号k∈{1,…,K}の評価者がラベルデータc∈{1,…,C}によって表されるラベルの特徴データにラベルデータc’∈{1,…,C}によって表されるラベルを付与する確率を表す。言い換えると、能力データa(k,c,c’)は、評価者番号kに対応する評価者がラベルデータcによって表されるラベルの特徴データを評価した際に、ラベルデータc’∈{1,…,C}によって表されるラベルを付与する確率を表す。すなわち、ラベルデータcは特徴データの正しいラベルを表し、ラベルデータc’は評価者が当該特徴データに付与するラベルを表し、c=c’に対する能力データa(k,c,c’)は評価者番号k(i)の評価者がラベルデータcによって表される正しいラベルを付与する確率を表し、c≠c’に対する能力データa(k,c,c’)は評価者番号k(i)の評価者がラベルデータc’によって表される誤ったラベルを付与する確率を表す。図4の例では、各評価者番号k∈{1,…,K}に対してラベルデータc∈{1,…,C}とラベルデータc’∈{1,…,C}の組に対する各能力データa(k,c,c’)が対応付けられている。図4の例の能力データa(k,c,c’)は、a(k,c,1)+・・・+a(k,c,C)が1になるように、0以上1以下の範囲に正規化されている。
次に、本実施形態のモデル学習処理を説明する。
本実施形態のモデル学習処理では、更新部が、学習用特徴データx(i)と、評価者が学習用特徴データに付与したラベルを表すラベルデータy(i)と、を含む学習データを入力とし、特徴データに付与されるラベルの確率分布を推定するラベル推定モデルλを特徴データである学習用特徴データx(i)に適用して得られる推定ラベル確率値h(i,c)と、評価者が特徴データに対して正しいラベルを付与する確率および誤ったラベルを付与する確率を表す能力データa(k,c,c’)とから得られる、能力データa(k,c,c’)による推定ラベル確率値h(i,c)の重み付け和である推定観測ラベル確率値y^(i,c’)、のラベルデータy(i)が表すラベルに対する誤差を表す誤差値L(i)が小さくなるように、能力データa(k,c,c’)を更新した更新能力データおよびラベル推定モデルλを更新した更新ラベル推定モデルλを得る。以下、図5を参照しながら詳細に説明する。
評価ラベル推定部114には、推定モデル学習部118から出力されたラベル推定モデルλと、学習用特徴データ記憶部112から抽出された学習用特徴データx(i)とが入力される。なお、ラベル推定モデルλの例は、ニューラルネットワーク、隠れマルコフモデル、サポートベクターマシンなどである。ラベル推定モデルλの初期値はどのようなものであってもよい。評価ラベル推定部114は、ラベル推定モデルλを学習用特徴データx(i)に適用して推定ラベル確率値h(i,c)(ただしi∈{1,…,I},c∈{1,…,C})を得て出力する。ここで推定ラベル確率値h(i,c)は、ラベルデータ番号iに対応する学習用特徴データx(i)の正しいラベルのラベルデータがcである確率を表す。すなわち、本実施形態で例示する推定ラベル確率値h(i,c)は、ラベル推定モデルλを学習用特徴データx(i)に適用して得られる確率分布p(c|x(i),λ)である。ただし、
観測ラベル推定部115には、ステップS114で得られた推定ラベル確率値h(i,c)、学習用ラベルデータ記憶部111から抽出された評価者番号k(i)、および能力データ記憶部113から抽出された能力データa(k,c,c’)が入力される。観測ラベル推定部115は、入力された推定ラベル確率値h(i,c)と評価者番号k(i)と能力データa(k,c,c’)とから推定観測ラベル確率値y^(i,c’)を得て出力する。前述のように、推定観測ラベル確率値y^(i,c’)は、能力データa(k(i),c,c’)による推定ラベル確率値h(i,c)の重み付け和である。これにより、評価者の能力によって評価値が真の値からぶれることを再現する。前述のように能力データa(k(i),c,c’)は、評価者番号k(i)に対応する評価者がラベルデータcによって表されるラベルの特徴データを評価した際に、ラベルデータc’∈{1,…,C}によって表されるラベルを付与する確率を表す。推定観測ラベル確率値y^(i,c’)は、評価者番号k(i)に対応する評価者が正しくラベルを付与する確率(c=c’の確率)と、誤ったラベルを付与する確率(c≠c’の確率)との両面から、学習用特徴データx(i)にラベルデータc’に対応するラベルが付与される確率を再現したものである。例えば、観測ラベル推定部115は、以下のように推定観測ラベル確率値y^(i,c’)を求めて出力する。
誤差評価部116には、観測ラベル推定部115で得られた推定観測ラベル確率値y^(i,c’)、および学習用ラベルデータ記憶部111から抽出したラベルデータy(i)が入力される。誤差評価部116は、ラベルデータy(i)が表すラベルに対する推定観測ラベル確率値y^(i,c’)の誤差を表す誤差値L(i)を得て出力する。誤差値L(i)は、ラベルデータy(i)が表すラベルに対する推定観測ラベル確率値y^(i,c’)の乖離を表す。例えば、誤差評価部116は、クラス識別において頻繁に使用される誤差値であるCategorical Cross-Entropyに基づいてラベルデータy(i)と推定観測ラベル確率値y^(i,c’)との間の誤差を評価して誤差値L(i)を得て出力する。例えば、誤差評価部116は、以下に従って誤差値L(i)を求める。
能力学習部117には、ステップS114で得られた推定ラベル確率値h(i,c)、ステップS115で得られた推定観測ラベル確率値y^(i,c’)、ステップS116で得られた誤差値L(i)、学習用ラベルデータ記憶部111から抽出された評価者番号k(i)、および能力データ記憶部113から抽出された能力データa(k,c,c’)が入力される。能力学習部117は、これらを用いて能力データa(k,c,c’)を更新して更新能力データa’(k,c,c’)を得る。例えば、能力学習部117は、誤差値L(i)が小さくなるように能力データa(k,c,c’)を更新して更新能力データa(k,c,c’)を得る。例えば、能力学習部117は、まず、すべてのc∈{1,…,C}について以下のようにa(k,c,c’)を更新する。
推定モデル学習部118には、ステップS115で得られた推定観測ラベル確率値y^(i,c’)、ステップS116で得られた誤差値L(i)、学習用ラベルデータ記憶部111から抽出された評価者番号k(i)、および能力データ記憶部113から抽出されたステップS117での更新後の能力データa(k,c,c’)が入力される。推定モデル学習部118は、これらを用い、ラベル推定モデルλを更新した更新ラベル推定モデルλを得て出力する。例えば、推定モデル学習部118は、誤差値L(i)が小さくなるように、ラベル推定モデルλを更新して更新ラベル推定モデルλを得る。例えば、推定モデル学習部118は、下記の勾配に基づき、誤差値L(i)が小さくなるように、更新ラベル推定モデルλのパラメータを更新する。
制御部119は、終了条件を充足したか否かを判断する。終了条件に限定はないが、例えば、ステップS118aの前後でのラベル推定モデルλのパラメータの変化量が所定値以下となったこと(ラベル推定モデルλのパラメータが十分に収束したこと)、ラベル推定モデルλのパラメータの更新が所定回数実行されたことなどを終了条件とできる。終了条件を満たしていないと判断された場合にはステップS114に戻る。すなわち、ステップS117で更新された更新能力データを新たな能力データa(k,c,c’)とし、ステップS118aで更新された更新ラベル推定モデルを新たなラベル推定モデルλとし、ステップS114以降の処理が再び繰り返される。
一方、ステップS119で終了条件を満たしたと判断された場合には、推定モデル学習部118が最後にステップS118aで得たラベル推定モデルλを特定するためのパラメータ(更新ラベル推定モデルλを特定するための情報)を出力する。あるいは、推定モデル学習部118が、最後にステップS118aで更新される前のラベル推定モデルλを特定するためのパラメータ(ラベル推定モデルλを特定するための情報)が出力してもよい。
次に、本実施形態の推定処理を説明する。
上述のようにモデル学習装置11から出力されたラベル推定モデルλを特定するパラメータは、ラベル推定装置12(図6)のモデル記憶部121に格納される。推定部122には、上述した学習用特徴データx(i)と同じ種別の入力特徴データxが入力される。推定部122はモデル記憶部121からラベル推定モデルλを特定する情報を読み込み、ラベル推定モデルλに対して入力特徴データxを適用し、入力特徴データxに対するラベルyを推定して出力する。例えば、推定部122は入力特徴データxに対するラベルyを出力してもよいし、複数のラベルyとそれらの確率とを出力してもよいし、確率の高い順に複数のラベルyを出力してもよい。
次に本発明の第2実施形態を説明する。第2実施形態は、第1実施形態の能力データ記憶部113、評価ラベル推定部114、観測ラベル推定部115、誤差評価部116、能力学習部117、推定モデル学習部118、および制御部119を含む更新部の機能を一つのニューラルネットワークで実装するものである。以下では、第1実施形態との相違点を中心に説明し、これまでに説明した事項については同じ参照番号を用いて説明を簡略化する。
図7に例示するように、本実施形態のモデル学習装置21は、学習用ラベルデータ記憶部111、学習用特徴データ記憶部112、損失関数計算部211、パラメータ更新部218、および制御部219を有する。ここで、損失関数計算部211、パラメータ更新部218、および制御部219が更新部に相当する。第2実施形態でも第1実施形態と同じラベル推定装置12を用いる。
モデル学習装置21によるモデル学習処理の前処理として、学習用ラベルデータが学習用ラベルデータ記憶部111に格納され、学習用特徴データが学習用特徴データ記憶部112に格納される。第1実施形態との相違点は、第1実施形態の前処理では、能力データが能力データ記憶部113に格納されたが本実施形態の前処理ではこの処理は行われない。その他は第1実施形態の前処理と同じである。
次に、図8および図9を用いて本実施形態のモデル学習処理を説明する。
本実施形態のモデル学習処理では、学習用特徴データx(i)=(x(i,1),…,x(i,n))を入力として推定ラベル確率値h(i,c)を得るラベル推定モデルλとして機能する通常のニューラルネットワークである第1ノードN(1)(単数または複数のノード)と、評価者番号k(i)を入力として埋め込み層(Embedding層)等による変換を行って能力データa(k(i),c,c’)を出力する第2ノードN(2)(単数または複数のノード)と、推定ラベル確率値h(i,c)および能力データa(k(i),c,c’)を入力として確率計算に基づく変換
損失関数計算部211は、学習用特徴データ記憶部112から抽出した学習用特徴データx(i)を第1ノードN(1)に入力し、学習用ラベルデータ記憶部111から抽出した評価者番号k(i)を第2ノードN(2)に入力することによって第3ノードN(3)から出力される推定観測ラベル確率値y^(i,c’)、および学習用ラベルデータ記憶部111から抽出したラベルデータy(i)を用い、第1実施形態のステップS116で説明したように誤差値L(i)を求め、それを損失関数L(i)として出力する。
パラメータ更新部218は、ステップS211で得られた損失関数L(i)を入力とし、損失関数L(i)を用いた学習処理により、上述のニューラルネットワークの第1ノードN(1)および第2ノードN(2)のパラメータ(例えば、重みおよび活性化関数の少なくとも一方)を更新する。例えば、パラメータ更新部218は、損失関数L(i)が小さくなるように第1ノードN(1)および第2ノードN(2)のパラメータを更新する。このパラメータの更新には、誤差逆伝播法や勾配降下法などを用いることができる。
制御部219は、終了条件を充足したか否かを判断する。終了条件に限定はないが、例えば、前回のステップS211で得られた推定観測ラベル確率値y^(i,c’)に対する今回のステップS211で得られた推定観測ラベル確率値y^(i,c’)の変化量が所定値以下となったこと(推定観測ラベル確率値y^(i,c’)が十分に収束したこと)、前回のステップS211で得られた損失関数L(i)に対する今回のステップS211で得られた損失関数L(i)の変化量が所定値以下となったこと(損失関数L(i)が十分に収束したこと)、前回のステップS218aで更新されたパラメータに対する今回のステップS218aで更新されたパラメータの変化量が所定値以下となったこと(ラベル推定モデルλのパラメータが十分に収束したこと)、ステップS218aによるパラメータの更新が所定回数実行されたことなどを終了条件とできる。終了条件を満たしていないと判断された場合にはステップS211に戻し、ステップS211,S218a,S219の処理が再び実行される。一方、終了条件を満たしたと判断された場合には、パラメータ更新部218が第1ノードN(1)のパラメータをラベル推定モデルλのパラメータとして出力する。
一方、ステップS219で終了条件を満たしたと判断された場合には、パラメータ更新部218が、最後にステップS218aで更新した第1ノードN(1)のパラメータを、ラベル推定モデルλを特定するためのパラメータ(更新ラベル推定モデルλを特定するための情報)として出力する。あるいは、パラメータ更新部218が、最後にステップS218aで更新する前の第1ノードN(1)のパラメータを、ラベル推定モデルλを特定するためのパラメータ(ラベル推定モデルλを特定するための情報)として出力してもよい。
次に、本実施形態の推定処理を説明する。第1実施形態では、モデル学習装置11から出力されたラベル推定モデルλを特定するパラメータがラベル推定装置12(図6)のモデル記憶部121に格納されたが、第2実施形態では、モデル学習装置21から出力されたラベル推定モデルλを特定するパラメータがラベル推定装置12のモデル記憶部121に格納される。その他は第1実施形態の推定処理と同一である。
なお、本発明は上述の実施形態に限定されるものではない。例えば、第1実施形態で説明した評価ラベル推定部114、観測ラベル推定部115、誤差評価部116、能力学習部117、推定モデル学習部118、および制御部119の処理を1つの処理部で実行してもよい。あるいは、評価ラベル推定部114、観測ラベル推定部115、誤差評価部116、能力学習部117、推定モデル学習部118、および制御部119に含まれる複数の処理部の処理を1つの処理部が行ってもよい。この場合の実装方法はニューラルネットワークに限られない。例えば、第2実施形態では、能力データ記憶部113、評価ラベル推定部114、観測ラベル推定部115、誤差評価部116、能力学習部117、推定モデル学習部118、および制御部119を含む更新部の機能を一つのニューラルネットワークで実装したが、他の方法でこれらをまとめて実装してもよい。
12 ラベル推定装置
Claims (9)
- 学習用特徴データと、評価者が前記学習用特徴データに付与したラベルを表すラベルデータと、を含む学習データを入力とし、特徴データに付与されるラベルの確率分布を推定するラベル推定モデルを前記特徴データである学習用特徴データに適用して得られる推定ラベル確率値と、評価者が前記特徴データに対して正しいラベルを付与する確率および誤ったラベルを付与する確率を表す能力データとから得られる、前記能力データによる前記推定ラベル確率値の重み付け和である推定観測ラベル確率値、の前記ラベルデータが表すラベルに対する誤差を表す誤差値が小さくなるように、前記能力データを更新した更新能力データおよび前記ラベル推定モデルを更新した更新ラベル推定モデルを得る更新部
を有するモデル学習装置。 - 請求項1のモデル学習装置であって、
前記更新能力データを新たな前記能力データとし、前記更新ラベル推定モデルを新たな前記ラベル推定モデルとし、所定の終了条件を満たすまで前記更新部の処理を繰り返して得た前記ラベル推定モデルまたは前記更新ラベル推定モデルを特定する情報を出力する、モデル学習装置。 - 請求項1または2のモデル学習装置であって、
i∈{1,…,I}がラベルデータ番号であり、k(i)∈{1,…,K}が評価者番号であり、y(i)∈{1,…,C}、c∈{1,…,C}、およびc’∈{1,…,C}が前記ラベルデータであり、I,K,Cが2以上の整数であり、
前記学習データは、ラベルデータ番号i∈{1,…,I}に対応する前記学習用特徴データx(i)と、評価者番号k(i)∈{1,…,K}の前記評価者が前記学習用特徴データx(i)に付与したラベルを表すラベルデータy(i)と、を含み、
前記推定ラベル確率値h(i,c)は、前記ラベル推定モデルλを前記学習用特徴データx(i)に適用して得られる確率分布p(c|x(i),λ)であり、
前記能力データa(k,c,c’)は、前記評価者番号k(i)の前記評価者が前記ラベルデータcによって表されるラベルの前記特徴データに前記ラベルデータc’によって表されるラベルを付与する確率を表し、
前記推定観測ラベル確率値y^(i,c’)が
である、モデル学習装置。 - 請求項1のモデル学習装置であって、
i∈{1,…,I}がラベルデータ番号であり、k(i)∈{1,…,K}が評価者番号であり、y(i)∈{1,…,C}、c∈{1,…,C}、およびc’∈{1,…,C}が前記ラベルデータであり、I,K,Cが2以上の整数であり、
前記学習データは、ラベルデータ番号i∈{1,…,I}に対応する前記学習用特徴データx(i)と、評価者番号k(i)∈{1,…,K}の前記評価者が前記学習用特徴データx(i)に付与したラベルを表すラベルデータy(i)と、を含み、
前記推定ラベル確率値h(i,c)は、前記ラベル推定モデルλを前記学習用特徴データx(i)に適用して得られる確率分布p(c|x(i),λ)であり、
前記能力データa(k,c,c’)は、前記評価者番号k(i)の前記評価者が前記ラベルデータcによって表されるラベルの前記特徴データに前記ラベルデータc’によって表されるラベルを付与する確率を表し、
前記更新部は、前記学習用特徴データx(i)を入力として前記推定ラベル確率値h(i,c)を得る前記ラベル推定モデルλとして機能する第1ノードと、前記評価者番号k(i)を入力として前記能力データa(k(i),c,c’)を出力する第2ノードと、前記推定ラベル確率値h(i,c)および前記能力データa(k(i),c,c’)を入力として確率計算に基づく変換
を行って前記推定観測ラベル確率値y^(i,c’)を出力する第3ノードと、を含むニューラルネットワークに対し、前記第3ノードから出力される前記推定観測ラベル確率値y^(i,c’)および前記ラベルデータy(i)を用いて得られた前記誤差値を損失関数とした学習処理を所定の終了条件を満たすまで行って得た前記ラベル推定モデルλまたは前記更新ラベル推定モデルλを特定する情報を出力する、モデル学習装置。 - 請求項1から4の何れかの前記モデル学習装置の前記更新部から出力された前記更新ラベル推定モデルに入力特徴データを適用し、前記入力特徴データに付与されるラベルを推定するラベル推定部を有する、ラベル推定装置。
- 学習用特徴データと、評価者が前記学習用特徴データに付与したラベルを表すラベルデータと、を含む学習データを入力とし、特徴データに付与されるラベルの確率分布を推定するラベル推定モデルを前記特徴データである学習用特徴データに適用して得られる推定ラベル確率値と、評価者が前記特徴データに対して正しいラベルを付与する確率および誤ったラベルを付与する確率を表す能力データとから得られる、前記能力データによる前記推定ラベル確率値の重み付け和である推定観測ラベル確率値、の前記ラベルデータが表すラベルに対する誤差を表す誤差値が小さくなるように、前記能力データを更新した更新能力データおよび前記ラベル推定モデルを更新した更新ラベル推定モデルを得る更新ステップ
を有するモデル学習方法。 - 請求項1から4の何れかの前記モデル学習装置の前記更新部から出力された前記更新ラベル推定モデルに入力特徴データを適用し、前記入力特徴データに付与されるラベルを推定するラベル推定ステップを有する、ラベル推定方法。
- 請求項1から4の何れかのモデル学習装置としてコンピュータを機能させるためのプログラム。
- 請求項5のラベル推定装置としてコンピュータを機能させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019040240A JP7222274B2 (ja) | 2019-03-06 | 2019-03-06 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
US17/437,017 US20220180188A1 (en) | 2019-03-06 | 2020-02-25 | Model learning apparatus, label estimation apparatus, method and program thereof |
PCT/JP2020/007287 WO2020179525A1 (ja) | 2019-03-06 | 2020-02-25 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019040240A JP7222274B2 (ja) | 2019-03-06 | 2019-03-06 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020144569A JP2020144569A (ja) | 2020-09-10 |
JP7222274B2 true JP7222274B2 (ja) | 2023-02-15 |
Family
ID=72337966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019040240A Active JP7222274B2 (ja) | 2019-03-06 | 2019-03-06 | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20220180188A1 (ja) |
JP (1) | JP7222274B2 (ja) |
WO (1) | WO2020179525A1 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111492424A (zh) * | 2018-10-19 | 2020-08-04 | 索尼公司 | 信息处理设备、信息处理方法以及信息处理程序 |
US20210304039A1 (en) * | 2020-03-24 | 2021-09-30 | Hitachi, Ltd. | Method for calculating the importance of features in iterative multi-label models to improve explainability |
CN114580588B (zh) * | 2022-05-06 | 2022-08-12 | 江苏省质量和标准化研究院 | 基于概率矩阵模型的uhf rfid群标签选型方法 |
CN116882713B (zh) * | 2023-09-07 | 2023-11-28 | 江苏省特种设备安全监督检验研究院 | 一种特种设备的数据采集方法、装置和电子设备 |
CN117237426B (zh) * | 2023-09-18 | 2024-03-22 | 北京大学第三医院(北京大学第三临床医学院) | 一种基于腰椎双斜位x光片的椎骨配准方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097468A (ja) | 2016-12-09 | 2018-06-21 | 日本電信電話株式会社 | 文分類学習装置、文分類装置、文分類学習方法、及び文分類学習プログラム |
-
2019
- 2019-03-06 JP JP2019040240A patent/JP7222274B2/ja active Active
-
2020
- 2020-02-25 WO PCT/JP2020/007287 patent/WO2020179525A1/ja active Application Filing
- 2020-02-25 US US17/437,017 patent/US20220180188A1/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018097468A (ja) | 2016-12-09 | 2018-06-21 | 日本電信電話株式会社 | 文分類学習装置、文分類装置、文分類学習方法、及び文分類学習プログラム |
Non-Patent Citations (2)
Title |
---|
GRIMM, Michael et al.,Evaluation of Natural Emotions Using Self Assessment Manikins,Proceedings of the 2005 IEEE Automatic Speech Recognition and Understanding Workshop,2005年11月27日,pp.381-385,ISBN 0-7803-9479-8 |
神山歩相名 ほか,ラベラーの安定性を考慮した潜在変数モデルに基づく電話対応の好感度推定,日本音響学会 2019年春季研究発表会講演論文集CD-ROM,2019年02月19日,pp.1353-1356,ISSN 1880-7658 |
Also Published As
Publication number | Publication date |
---|---|
WO2020179525A1 (ja) | 2020-09-10 |
JP2020144569A (ja) | 2020-09-10 |
US20220180188A1 (en) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7222274B2 (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
CN112070138B (zh) | 多标签混合分类模型的构建方法、新闻分类方法及系统 | |
CN113297366B (zh) | 多轮对话的情绪识别模型训练方法、装置、设备及介质 | |
CN111738534A (zh) | 多任务预测模型的训练、事件类型的预测方法及装置 | |
CN110377733A (zh) | 一种基于文本的情绪识别方法、终端设备及介质 | |
KR102258000B1 (ko) | 복수의 사용자 단말들과의 연계를 통해 이미지 번역 서비스를 제공하기 위한 방법 및 서버 | |
CN109657792A (zh) | 构建神经网络的方法、装置和计算机可读介质 | |
JP6856503B2 (ja) | 印象推定モデル学習装置、印象推定装置、印象推定モデル学習方法、印象推定方法、およびプログラム | |
JP6962123B2 (ja) | ラベル推定装置及びラベル推定プログラム | |
CN111340245B (zh) | 一种模型训练方法及系统 | |
CN112836750A (zh) | 一种系统资源分配方法、装置及设备 | |
US20220215255A1 (en) | Learning content recommendation system for predicting probability of correct answer of user using collaborative filtering based on latent factor and operation method thereof | |
WO2021147405A1 (zh) | 客服语句质检方法及相关设备 | |
JP7298174B2 (ja) | モデル学習装置、ラベル推定装置、それらの方法、およびプログラム | |
CN111737417A (zh) | 修正自然语言生成结果的方法和装置 | |
CN110717037A (zh) | 对用户分类的方法和装置 | |
WO2022014386A1 (ja) | 情報処理装置及び情報処理方法 | |
JP7315091B2 (ja) | モデル学習装置、その方法、およびプログラム | |
CN114358284A (zh) | 一种基于类别信息对神经网络分步训练的方法、装置、介质 | |
KR20220155785A (ko) | 챗봇 운영 방법 및 장치 | |
CN113656669A (zh) | 标签更新方法及装置 | |
Lee | Accumulating conversational skills using continual learning | |
CN112348161A (zh) | 神经网络的训练方法、神经网络的训练装置和电子设备 | |
CN114372191A (zh) | 消息行业应用模板推荐方法、装置及计算设备 | |
JP2020140674A (ja) | 回答選択装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220830 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221021 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230117 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7222274 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |