JP2021135683A - 学習装置、推論装置、学習方法及び推論方法 - Google Patents

学習装置、推論装置、学習方法及び推論方法 Download PDF

Info

Publication number
JP2021135683A
JP2021135683A JP2020030794A JP2020030794A JP2021135683A JP 2021135683 A JP2021135683 A JP 2021135683A JP 2020030794 A JP2020030794 A JP 2020030794A JP 2020030794 A JP2020030794 A JP 2020030794A JP 2021135683 A JP2021135683 A JP 2021135683A
Authority
JP
Japan
Prior art keywords
learning
transformation matrix
estimated distribution
data
inference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020030794A
Other languages
English (en)
Other versions
JP7242595B2 (ja
Inventor
佑一 加藤
Yuichi Kato
佑一 加藤
康太 中田
Kota Nakata
康太 中田
晋 内藤
Susumu Naito
晋 内藤
安則 田口
Yasunori Taguchi
安則 田口
健太郎 高木
Kentaro Takagi
健太郎 高木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2020030794A priority Critical patent/JP7242595B2/ja
Priority to US16/999,191 priority patent/US11868885B2/en
Publication of JP2021135683A publication Critical patent/JP2021135683A/ja
Application granted granted Critical
Publication of JP7242595B2 publication Critical patent/JP7242595B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/16Matrix or vector computation, e.g. matrix-matrix or matrix-vector multiplication, matrix factorization
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/18Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Analysis (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Algebra (AREA)
  • Neurology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Operations Research (AREA)
  • Probability & Statistics with Applications (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

【課題】選択されるデータの数kと、選択されたk個のデータの重みとをヒューリスティックに決めずに、入力データに応じて決定できるようにする。【解決手段】実施形態の学習装置は、生成部と学習部とを備える。生成部は、特徴量と目的値とが関連付けられた学習データから変換行列を生成する。学習部は、前記変換行列の行数と等しい数のノードを有し、前記ノードの値によって第1推定分布を示す第1出力層、及び、前記変換行列と前記第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークのパラメータを学習する。【選択図】図1

Description

本発明の実施形態は学習装置、推論装置、学習方法及び推論方法に関する。
k近傍法は、定義された距離内で最も近傍な学習データの点をk個選択して、入力データに対して回帰分析やクラス分類問題を解く機械学習の方法である。k近傍法は、古くからある方法で、2020年の現在でもしばしば用いられる単純かつ強力な方法である。k近傍法では、選択されるデータの数kと、選択されたk個のデータの重みとは、解きたいデータに依存するという問題点がある。
T.M.COVER AND P.E.HART, Nearest Neighbor Pattern Classification, IEEE TRANSACTIONS ON INFORMATION THEORY,VOL.IT−IS,NO.1,1967
しかしながら、従来の技術では、選択されるデータの数kと、選択されたk個のデータの重みとをヒューリスティックに決めなければならなかった。
実施形態の学習装置は、生成部と学習部とを備える。生成部は、特徴量と目的値とが関連付けられた学習データから変換行列を生成する。学習部は、前記変換行列の行数と等しい数のノードを有し、前記ノードの値によって第1推定分布を示す第1出力層、及び、前記変換行列と前記第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークのパラメータを学習する。
実施形態の学習装置の機能構成の例を示す図。 実施形態のニューラルネットワークの例を示す図。 実施形態の学習方法の例を示すフローチャート。 実施形態の推論装置の機能構成の例を示す図。 実施形態の推論方法の例を示すフローチャート。 実施形態の学習データの例(回帰分析の場合)を示す図。 実施形態の学習データの例(クラス分類の場合)を示す図。 実施形態の学習装置及び推論装置のハードウェア構成の例を示す図。
以下に添付図面を参照して、学習装置、推論装置、学習方法及び推論方法の実施形態を詳細に説明する。
[学習装置の機能構成の例]
図1は実施形態の学習装置10の機能構成の例を示す図である。実施形態の学習装置10は、学習データ記憶部11、生成部12、変換行列記憶部13、学習部14及び出力部15を備える。
学習データ記憶部11は、学習データを記憶する。学習データは、特徴量と目的値とが関連付けられたデータである。特徴量は、例えばセンサなどから取得された温度等である。目的値は、特徴量が入力されたときに、当該特徴量に応じて出力される目的の値(正解データ)を示す。
生成部12は、特徴量と目的値とが関連付けられた学習データから変換行列を生成する。変換行列の詳細は後述する。
変換行列記憶部13は、生成部12により生成された変換行列を記憶する。
学習部14は、変換行列の行数と等しい数のノードを有し、当該ノードの値によって第1推定分布を示す第1出力層、及び、変換行列と第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークのパラメータを学習する。学習対象のニューラルネットワークは、例えば回帰分析に用いられる回帰分析モデル、及び、クラス分類に用いられる分類モデルである。
具体的には、学習部14は、第1推定分布算出部141、第2推定分布算出部142及び更新部143を備える。第1推定分布算出部141は、第1推定分布を示す第1出力層を算出する。第2推定分布算出部142は、第2推定分布を示す第2出力層を算出する。更新部143は、第1出力層の値(第1推定分布)、及び、第2出力層の値(第2推定分布)を決定するパラメータを更新する。
出力部15は、学習部14により学習されたニューラルネットワークを出力する。
[ニューラルネットワークの例]
図2は実施形態のニューラルネットワークの例を示す図である。実施形態のニューラルネットワークは、入力層101、中間層102、第1出力層103、乗算部104及び第2出力層105を備える。Wは、入力層101と中間層102との間のニューラルネットワークの重みを示す。Wは、中間層102と第1出力層103との間のニューラルネットワークの重みを示す。
入力層101には、入力データが入力される。入力データは、例えば学習データに含まれる特徴量である。
中間層102は、入力層101と第1出力層103との間にある層(隠れ層)である。図2の例では、中間層102が1層である場合の例を示しているが、中間層102が2層以上あってもよい。
第1出力層103は、変換行列Tの行数Mと等しい数のノードを有し、当該ノードの値によって第1推定分布を示す。第1出力層103は、ソフトマックス層により実現される。すなわち、第1出力層103に含まれるノードの値の合計値は1となる。
乗算部104は、変換行列Tと第1推定分布との積を算出する。
第2出力層105は、変換行列と第1推定分布との積により定まる第2推定分布を示す。
以下、ニューラルネットワークが回帰分析に用いられる場合を例にして、実施形態の学習装置10の動作について具体的に説明する。
学習データ記憶部11は、データの特徴を表す特徴量x(i=1,2,…,N)と、回帰されるべき値を示す目的値yとが関連付けられた学習データを記憶する。x及びyのiは、i番目のデータを示す。xはd次元とし、yはd次元とする。
図3は実施形態の学習方法の例を示すフローチャートである。はじめに、生成部12が、学習データから選択データを選択し、選択データに基づく行ベクトルを含む行列によって、変換行列Tを生成する(ステップS101)。具体的には、生成部12が、目的値y(i=1,2,…,N)から、M行d列(M×d)の変換行列Tを生成する。Mは、選択データの数を示し、特徴量xの数N以下の数である。実施形態の回帰分析では、yの全て(M=N)または一部(M<N)が変換行列Tの各行(行ベクトル)をそれぞれ構成する。目的値y(i=1,2,…,N)の一部(M<N)を使って変換行列Tを生成する場合には、生成部12は、例えば目的値y(i=1,2,…,N)からランダムに目的値y(i=1,2,…,M)を選ぶ。
次に、更新部143が、入力層101に入力された入力データを回帰する初期の回帰分析モデル(ニューラルネットワーク)を生成する(ステップS102)。第1出力層103は、変換行列Tの行数と等しい数のM個のノード数を持つ。初期の回帰分析モデルでは、回帰分析モデルのパラメータ(各ノードへの重みW及びW)はランダムに初期化される。
次に、第1推定分布算出部141が、入力層101に入力された入力データに対して、M個のノードの値sによって第1推定分布を示す第1出力層を算出する(ステップS103)。第1推定分布の値sのt成分をs(t=0,1,…,M−1)とする。sは、ソフトマックスにより決定される。すなわちsは、0から1までの値をとり、s+s+・・・+sM−1=1となるので確率を表す。これにより、sは変換行列Tのどの行をどれくらいの確率で使用するかを決定する。つまり、第1推定分布は、変換行列Tに含まれる行ベクトルの重みを示す。
次に、第2推定分布算出部142が、第1推定分布と変換行列Tとの積(行列積)により、第2推定分布の値y’を算出する(ステップS104)。第2推定分布y’の次元は、目的値yと同じd次元である。具体的に、第1推定分布の値sが3列で、変換行列Tが3×2行(M=3,d=2)のときの第2推定分布算出部142の計算例を下記式(1)に示す。
Figure 2021135683
上記式(1)で算出された値が第2推定分布となる。
次に、更新部143が、第1及び第2推定分布と、学習データとから、ニューラルネットワーク(実施形態では回帰分析モデル)のパラメータを更新する(ステップS105)。具体的には、パラメータの更新はミニバッチ単位で実施される。また、回帰分析モデルのパラメータ更新の損失基準の例としては、二乗平均誤差(下記式(2))が用いられる。
Figure 2021135683
二乗平均誤差による損失基準は、目的値yと第2推定分布y’との近さである。上記式(2)のjは、j番目の成分を表す。更新部143は、上記式(2)により二乗平均誤差を算出し、更にミニバッチ数で当該二乗平均誤差の平均をとる。この損失基準により、第2推定分布y’をyに近づけることができる。更新部143は、例えば確率勾配降下法等を利用して、ニューラルネットワークのパラメータを更新する。これにより、例えば第1推定分布(変換行列Tに含まれる行ベクトルの重み)がより適切な値に決定されるように、ニューラルネットワークのパラメータが学習される。
次に、更新部143が、パラメータの更新が終了したか否かを判定する(ステップS106)。更新終了の判定は、例えば学習回数、及び、損失基準の改善具合等に基づいて行われる。パラメータの更新が終了していない場合(ステップS106,No)、処理はステップS103に戻る。パラメータの更新が終了した場合(ステップS106,Yes)、処理は終了する。
以下で、本実施形態では、k近傍法とは異なり、kの数やその重みが自動調整されることを説明する。先述した通り、第2推定分布は、第1推定分布の値sと変換行列Tとの行列積で決定される。これを言い換えると、変換行列のt番目の行に第1推定分布の値sのt番目の成分であるsを列方向に乗算してから、行方向に足し合わせることとなる。変換行列Tは学習データから生成されているので、第1推定分布の値sと変換行列Tとの行列積をとることは、学習データをどれくらいの重みで足し合わせるかと同義となる。したがって、使用される学習データの数k、及び、当該学習データの重みを第1推定分布の値sで自動調整できる。
以下で、損失基準に、更に入力データの類似度を考慮する場合の方法について説明する。上述のステップS101で、変換行列Tが生成されたときに、その生成に用いられた学習データの目的値yに関連付けられた特徴量をx’とする。更新部143は、生成部12により生成されたM行の変換行列Tに対して、変換行列Tのどの行かを指し示すワンホットベクトルhをM個発行する。例えば、変換行列Tの第2行を指し示すワンホットベクトルは、h=[0,1,0,0,…,0]と表され、hの要素数はM個である。
ステップS105で、更新部143が、学習データから、回帰分析モデルのパラメータを更新するときに、学習データにx’を加え、x’が入力されたときには、上述の式(2)の損失基準に加えて、交差エントロピーの損失基準(下記式(3))を与える。
Figure 2021135683
更新部143は、上記式(3)による交差エントロピーの損失基準を算出し、ミニバッチ内で平均をとる。式(3)のkは、M個発行されたワンホットベクトルhのk個目を、lは、k番目のワンホットベクトルhのl番目の成分を表す。上記式(3)の損失基準によって、変換行列Tの生成に用いられた目的値yに関連付けられた特徴量xが、入力層101に入力されたときには、変換行列Tに含まれるyの行が主に用いられるようにパラメータが学習される。
更新部143は、上記式(1)及び(3)を合わせた下記式(4)の損失基準Lが小さくなるように、パラメータを更新する。
Figure 2021135683
上記式(4)のλは、L及びLの重みを表す任意のパラメータである。上記式(4)の第2項によって、変換行列Tに含まれる行ベクトルの値に対応(又は類似)する特徴量xが入力された場合は、変換行列T内の当該行ベクトルの値が主に用いられるように、パラメータが更新される。
次に、実施形態の推論装置について説明する。
[推論装置の機能構成の例]
図4は実施形態の推論装置20の機能構成の例を示す図である。実施形態の推論装置20は、受付部21、推論部22、モデル記憶部23及び出力部24を備える。
受付部21は、推論処理に用いられる入力データを受け付ける。
推論部22は、学習データから生成された変換行列Tの行数と等しい数のノードを有し、ノードの値によって第1推定分布を示す第1出力層103、及び、変換行列Tと第1推定分布との積により定まる第2推定分布を示す第2出力層105を有するニューラルネットワークに、入力データを入力することによって推論処理を実行する。具体的には、推論部22は、モデル記憶部23から、上述の学習装置10によって学習されたニューラルネットワーク(実施形態の例では回帰分析モデル)を読み出す。推論部22は、モデル記憶部23から読み出されたニューラルネットワークの入力層101に、入力データを入力する。そして、推論部22は、ニューラルネットワークの第2出力層105から出力されたデータを出力部24に入力する。
出力部24は、推論部22から入力されたデータを、推論結果として出力する。
なお、推論装置20は、学習装置10と同じ装置で実現してもよいし、学習装置10とは別の装置で実現してもよい。
図5は実施形態の推論方法の例を示すフローチャートである。はじめに、受付部21が、推論処理に用いられる入力データを受け付ける(ステップS201)。次に、推論部22が、上述の推論処理を実行する(ステップS202)。次に、出力部24が、ステップS202の推論処理により得られた出力データを、推論結果として出力する(ステップS203)。
以下に、回帰分析の具体例を示す。
図6は実施形態の学習データの例(回帰分析の場合)を示す図である。図6の例では、特徴量x〜xは、温度T、温度T及び温度Tである。また、目的値y及びyは、温度T、温度T及び温度Tから予測される圧力P及びPである。
まず、生成部12が、圧力P及びPから変換行列Tを生成する。番号1,2及びNの学習データが、変換行列Tの生成に使われたとすると、変換行列Tは、下記式(5)により表される。
Figure 2021135683
次に、更新部143が、確率勾配降下法等を利用して、学習データ(特徴量x及び目的値y)から、上述の式(2)のLが小さくなるように、ニューラルネットワークのパラメータ(重みW及びW)を更新する。
推論装置20は、変換行列Tと、学習で得られたW及びWとを用いて、新たなデータに対して回帰分析を行う。例えば、推論装置20に、新たなデータX=[100,100,80]が入力され、第1推定分布の値はs=[0.8,0.10.1]となったとする。すると、推論装置20は、s=[0.8,0.10.1]と変換行列Tとの積から、第2推定分布のy’=[9.5,9]を出力する。
次に、上述の式(4)のLが小さくなるように、ニューラルネットワークのW及びWを更新する場合について説明する。変換行列Tの生成に用いられた学習データyに対応する特徴量x’は下記式(6)により表される。
Figure 2021135683
上記式(6)の各行が、変換行列Tの生成に用いられた学習データyに対応する特徴量を示す。例えば、特徴量x’の1行目は、番号1の学習データの特徴量xに対応する。
更新部143は、特徴量x、特徴量x’及び目的値yから、上記式(4)のLが小さくなるように、ニューラルネットワークのパラメータ(重みW及びW)を更新する。理想的に学習が進んだとすると、例えば特徴量x’の1行目と同じ値(番号1の学習データに相当)が入力されたときには、第1推定分布の値はs=[1,0,0]となる。s=[1,0,0]と変換行列Tとの積をとると第2推定分布G105は[10,10]となり、ニューラルネットワークが、学習データをより正確に再現できることが期待される。
以上をまとめると、ニューラルネットワークが、回帰分析に用いられる場合、生成部12は、学習データからn個(上記例ではn=3)の選択データを選択し、選択データに関連付けられた目的値を示す行ベクトルをn個含む行列によって、変換行列Tを生成する。学習部14は、上記式(4)の損失基準を用いることによって、行ベクトルが示す目的値に関連付けられた特徴量が、ニューラルネットワークに入力されたときには、目的値を示す行ベクトルが主に用いられるようにパラメータを学習する。
以上説明したように、実施形態の学習装置10では、生成部12が、特徴量xと目的値yとが関連付けられた学習データから変換行列Tを生成する。そして、学習部14が、変換行列Tの行数と等しい数のノードを有し、ノードの値によって第1推定分布を示す第1出力層103、及び、変換行列Tと第1推定分布との積により定まる第2推定分布を示す第2出力層105を有するニューラルネットワークのパラメータを学習する。
これにより実施形態の学習装置10によれば、k近傍法のように、選択されるデータの数kと、選択されたk個のデータの重みとをヒューリスティックに決めなくても、入力データに応じて決定できる。すなわち、どの学習データをどれくらいの重みで足し合わせるかが、入力データに応じて適切に制御されたニューラルネットワークを学習できる。
また、実施形態の推論装置20では、受付部21が、入力データを受け付ける。推論部22が、学習データから生成された変換行列Tの行数と等しい数のノードを有し、ノードの値によって第1推定分布を示す第1出力層103、及び、変換行列Tと第1推定分布との積により定まる第2推定分布を示す第2出力層105を有するニューラルネットワークに、入力データを入力することによって推論処理を実行する。そして、出力部24が、第2出力層105の出力を推論結果として出力する。
これにより実施形態の推論装置20によれば、k近傍法のように、kの数と選択されたk個のデータの重みとをヒューリスティックに決めなくても、適切な推論結果を得ることができる。
(実施形態の変形例)
次に実施形態の変形例について説明する。変形例の説明では、実施形態と同様の説明については省略し、実施形態と異なる箇所について説明する。上述の実施形態では、ニューラルネットワークが回帰分析に用いられる場合を例にして説明したが、変形例では、ニューラルネットワークがクラス分類に用いられる場合について説明する。
図7は実施形態の学習データの例(クラス分類の場合)を示す図である。図7の例では、特徴量x〜xは、温度T、温度T及び温度Tである。また、目的値yは、クラス(図7の例では0又は1)を示す。
まず、生成部12が、クラスから変換行列Tを生成する。番号1,2及びNの学習データが、変換行列Tの生成に使われたとすると、変換行列Tは、下記式(7)により表される。
Figure 2021135683
更新部143は、回帰分析の場合と同様に、ニューラルネットワークのパラメータ(重みW及びW)を更新する。
推論装置20は、第2推定分布の出力y’が0.5より小さければ、0のクラスに分類し、第2推定分布の出力y’が0.5以上であれば、1のクラスに分類する。例えば、新たなデータX=[100,100,80]が入力されたとし、第1推定分布の値がs=[0.8,0.10.1]となったとする。すると、s=[0.8,0.10.1]と変換行列Tとの積から、第2推定分布の出力yは0.8となる。よって、新たなデータX=[100,100,80]は、1のクラスへと分類される。
以上をまとめると、ニューラルネットワークが、クラス分類に用いられる場合、生成部12は、学習データからn個(上記例ではn=3)の選択データを選択し、選択データのクラスを示すn×1行列によって、変換行列Tを生成する。学習部14は、上記式(4)の損失基準を用いることによって、n×1行列が示すクラスに関連付けられた特徴量が、ニューラルネットワークに入力されたときには、当該クラスを示すn×1行列の成分が主に用いられるようにパラメータを学習する。
最後に、実施形態の学習装置10及び推論装置20のハードウェア構成の例について説明する。
[ハードウェア構成の例]
図8は実施形態の学習装置10及び推論装置20のハードウェア構成の例を示す図である。
学習装置10及び推論装置20は、制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306を備える。制御装置301、主記憶装置302、補助記憶装置303、表示装置304、入力装置305及び通信装置306は、バス310を介して接続されている。
制御装置301は、補助記憶装置303から主記憶装置302に読み出されたプログラムを実行する。主記憶装置302は、ROM(Read Only Memory)、及び、RAM(Random Access Memory)等のメモリである。補助記憶装置303は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及び、メモリカード等である。
表示装置304は表示情報を表示する。表示装置304は、例えば液晶ディスプレイ等である。入力装置305は、コンピュータを操作するためのインタフェースである。入力装置305は、例えばキーボードやマウス等である。コンピュータがスマートフォン及びタブレット型端末等のスマートデバイスの場合、表示装置304及び入力装置305は、例えばタッチパネルである。通信装置306は、他の装置と通信するためのインタフェースである。
コンピュータで実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、メモリカード、CD−R及びDVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記憶媒体に記録されてコンピュータ・プログラム・プロダクトとして提供される。
またコンピュータで実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。またコンピュータで実行されるプログラムをダウンロードさせずにインターネット等のネットワーク経由で提供するように構成してもよい。
またコンピュータで実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
コンピュータで実行されるプログラムは、上述の学習装置10及び推論装置20の機能構成(機能ブロック)のうち、プログラムによっても実現可能な機能ブロックを含むモジュール構成となっている。当該各機能ブロックは、実際のハードウェアとしては、制御装置301が記憶媒体からプログラムを読み出して実行することにより、上記各機能ブロックが主記憶装置302上にロードされる。すなわち上記各機能ブロックは主記憶装置302上に生成される。
なお上述した各機能ブロックの一部又は全部をソフトウェアにより実現せずに、IC(Integrated Circuit)等のハードウェアにより実現してもよい。
また複数のプロセッサを用いて各機能を実現する場合、各プロセッサは、各機能のうち1つを実現してもよいし、各機能のうち2つ以上を実現してもよい。
また学習装置10(推論装置20)を実現するコンピュータの動作形態は任意でよい。例えば、学習装置10(推論装置20)を1台のコンピュータにより実現してもよい。また例えば、学習装置10(推論装置20)を、ネットワーク上のクラウドシステムとして動作させてもよい。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 学習装置
11 学習データ記憶部
12 生成部
13 変換行列記憶部
14 学習部
15 出力部
20 推論装置
21 受付部
22 推論部
23 モデル記憶部
24 出力部
141 第1推定分布算出部
142 第2推定分布算出部
143 更新部
301 制御装置
302 主記憶装置
303 補助記憶装置
304 表示装置
305 入力装置
306 通信装置
310 バス

Claims (10)

  1. 特徴量と目的値とが関連付けられた学習データから変換行列を生成する生成部と、
    前記変換行列の行数と等しい数のノードを有し、前記ノードの値によって第1推定分布を示す第1出力層、及び、前記変換行列と前記第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークのパラメータを学習する学習部と、
    を備える学習装置。
  2. 前記生成部は、前記学習データから選択データを選択し、前記選択データに基づく行ベクトルを含む行列によって、前記変換行列を生成する、
    請求項1に記載の学習装置。
  3. 前記第1推定分布は、前記行ベクトルの重みを示し、
    前記学習部は、前記行ベクトルの重みがより適切な値に決定されるように、前記ニューラルネットワークのパラメータを学習する、
    請求項2に記載の学習装置。
  4. 前記ニューラルネットワークは、回帰分析に用いられ、
    前記生成部は、前記学習データからn個の選択データを選択し、前記選択データに関連付けられた目的値を示す行ベクトルをn個含む行列によって、前記変換行列を生成する、
    請求項2又は3に記載の学習装置。
  5. 前記学習部は、前記行ベクトルが示す目的値に関連付けられた特徴量が、前記ニューラルネットワークに入力されたときには、前記目的値を示す行ベクトルが主に用いられるように前記パラメータを学習する、
    請求項4に記載の学習装置。
  6. 前記ニューラルネットワークは、クラス分類に用いられ、
    前記生成部は、前記学習データからn個の選択データを選択し、前記選択データのクラスを示すn×1行列によって、前記変換行列を生成する、
    請求項2又は3に記載の学習装置。
  7. 前記学習部は、前記n×1行列が示すクラスに関連付けられた特徴量が、前記ニューラルネットワークに入力されたときには、前記クラスを示すn×1行列の成分が主に用いられるように前記パラメータを学習する、
    請求項6に記載の学習装置。
  8. 入力データを受け付ける受付部と、
    学習データから生成された変換行列の行数と等しい数のノードを有し、前記ノードの値によって第1推定分布を示す第1出力層、及び、前記変換行列と前記第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークに、前記入力データを入力することによって推論処理を実行する推論部と、
    前記第2出力層の出力を推論結果として出力する出力部と、
    を備える推論装置。
  9. 学習装置が、特徴量と目的値とが関連付けられた学習データから変換行列を生成するステップと、
    前記学習装置が、前記変換行列の行数と等しい数のノードを有し、前記ノードの値によって第1推定分布を示す第1出力層、及び、前記変換行列と前記第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークのパラメータを学習するステップと、
    を含む学習方法。
  10. 推論装置が、入力データを受け付けるステップと、
    前記推論装置が、学習データから生成された変換行列の行数と等しい数のノードを有し、前記ノードの値によって第1推定分布を示す第1出力層、及び、前記変換行列と前記第1推定分布との積により定まる第2推定分布を示す第2出力層を有するニューラルネットワークに、前記入力データを入力することによって推論処理を実行するステップと、
    前記推論装置が、前記第2出力層の出力を推論結果として出力するステップと、
    含む推論方法。
JP2020030794A 2020-02-26 2020-02-26 学習装置、推論装置、学習方法及び推論方法 Active JP7242595B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020030794A JP7242595B2 (ja) 2020-02-26 2020-02-26 学習装置、推論装置、学習方法及び推論方法
US16/999,191 US11868885B2 (en) 2020-02-26 2020-08-21 Learning device, inference device, learning method, and inference method using a transformation matrix generated from learning data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030794A JP7242595B2 (ja) 2020-02-26 2020-02-26 学習装置、推論装置、学習方法及び推論方法

Publications (2)

Publication Number Publication Date
JP2021135683A true JP2021135683A (ja) 2021-09-13
JP7242595B2 JP7242595B2 (ja) 2023-03-20

Family

ID=77366244

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030794A Active JP7242595B2 (ja) 2020-02-26 2020-02-26 学習装置、推論装置、学習方法及び推論方法

Country Status (2)

Country Link
US (1) US11868885B2 (ja)
JP (1) JP7242595B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11740613B2 (en) 2020-05-12 2023-08-29 Kabushiki Kaisha Toshiba Monitoring apparatus, monitoring method, computer program product, and model training apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012074007A (ja) * 2010-08-31 2012-04-12 Fuji Electric Co Ltd プラントの運転条件最適化システム、プラントの運転条件最適化方法、プラントの運転条件最適化プログラム
JP2019079352A (ja) * 2017-10-25 2019-05-23 新日鐵住金株式会社 情報処理装置、情報処理方法及びプログラム
JP2020021343A (ja) * 2018-08-02 2020-02-06 日本電信電話株式会社 解析装置、解析方法及びプログラム

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021087334A1 (en) * 2019-11-01 2021-05-06 Vannevar Labs, Inc. Neural network-based optical character recognition
US11475313B2 (en) * 2020-02-13 2022-10-18 International Business Machines Corporation Unsupervised, semi-supervised, and supervised learning using deep learning based probabilistic generative models

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012074007A (ja) * 2010-08-31 2012-04-12 Fuji Electric Co Ltd プラントの運転条件最適化システム、プラントの運転条件最適化方法、プラントの運転条件最適化プログラム
JP2019079352A (ja) * 2017-10-25 2019-05-23 新日鐵住金株式会社 情報処理装置、情報処理方法及びプログラム
JP2020021343A (ja) * 2018-08-02 2020-02-06 日本電信電話株式会社 解析装置、解析方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11740613B2 (en) 2020-05-12 2023-08-29 Kabushiki Kaisha Toshiba Monitoring apparatus, monitoring method, computer program product, and model training apparatus

Also Published As

Publication number Publication date
US11868885B2 (en) 2024-01-09
JP7242595B2 (ja) 2023-03-20
US20210264259A1 (en) 2021-08-26

Similar Documents

Publication Publication Date Title
Chen et al. A weighted LS-SVM based learning system for time series forecasting
JP5943358B2 (ja) 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム
US20220067588A1 (en) Transforming a trained artificial intelligence model into a trustworthy artificial intelligence model
US11704570B2 (en) Learning device, learning system, and learning method
US11715003B2 (en) Optimization system, optimization apparatus, and optimization system control method for solving optimization problems by a stochastic search
US11380301B2 (en) Learning apparatus, speech recognition rank estimating apparatus, methods thereof, and program
CN111077768B (zh) 优化装置及优化装置的控制方法
US20210158212A1 (en) Learning method and learning apparatus
JP6612716B2 (ja) パターン識別装置、パターン識別方法およびプログラム
CN103782290A (zh) 建议值的生成
Ke et al. Sparse attentive backtracking: Long-range credit assignment in recurrent networks
CN114118570A (zh) 业务数据预测方法及装置、电子设备和存储介质
JP2021135683A (ja) 学習装置、推論装置、学習方法及び推論方法
JPWO2020049666A1 (ja) 時系列データ処理装置
Mills et al. L2nas: Learning to optimize neural architectures via continuous-action reinforcement learning
JP7215966B2 (ja) ハイパーパラメータ管理装置、ハイパーパラメータ管理方法及びハイパーパラメータ管理プログラム製品
WO2021140884A1 (ja) モデルを再利用する方法及びコンピュータシステム
US9183503B2 (en) Sparse higher-order Markov random field
JP2019095894A (ja) 推定装置、学習装置、学習済みモデル、推定方法、学習方法、及びプログラム
JP7462206B2 (ja) 学習装置、学習方法、及び学習プログラム
JP7280921B2 (ja) 計算機システム、推論方法、及びプログラム
JP7470019B2 (ja) 情報処理システム
WO2022270163A1 (ja) 計算機システム及び介入効果予測方法
US20230195842A1 (en) Automated feature engineering for predictive modeling using deep reinforcement learning
JPH07191967A (ja) 関数近似装置及び電力需要予測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230308

R151 Written notification of patent or utility model registration

Ref document number: 7242595

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151