JP7180520B2 - 更新プログラム、更新方法および情報処理装置 - Google Patents

更新プログラム、更新方法および情報処理装置 Download PDF

Info

Publication number
JP7180520B2
JP7180520B2 JP2019078861A JP2019078861A JP7180520B2 JP 7180520 B2 JP7180520 B2 JP 7180520B2 JP 2019078861 A JP2019078861 A JP 2019078861A JP 2019078861 A JP2019078861 A JP 2019078861A JP 7180520 B2 JP7180520 B2 JP 7180520B2
Authority
JP
Japan
Prior art keywords
model
variable
parameter
data
updating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019078861A
Other languages
English (en)
Other versions
JP2020177427A (ja
Inventor
健人 上村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019078861A priority Critical patent/JP7180520B2/ja
Priority to US16/840,635 priority patent/US11481606B2/en
Publication of JP2020177427A publication Critical patent/JP2020177427A/ja
Application granted granted Critical
Publication of JP7180520B2 publication Critical patent/JP7180520B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/027Frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、更新プログラム、更新方法および情報処理装置に関する。
データ分析やデータマイニングなどの分野においては、データの関係を明らかにし、その関係に基づく意思決定等が行われる。具体的には、製造、医療、材料などの分野における意思決定のためには、データ間の点の関係性(予測)ではなく、線の関係性(因果)が利用される。例えば、ある検査数値を下げるためにどういう処置をとればよいのかが知りたい場合に、検査数値と因果関係がある項目を探索したり、ある目標強度を持つ物質を作るために、分子構造のどの部分をどの程度変化させればよいのかが知りたい場合に、強度と因果関係がある分子構造を探索したりする。
一般的に、データ間に因果関係が存在するかを探索する因果探索の分野においては、探索に用いるデータが必ずしも因果関係を有しているとは限らないので、因果関係を判定できることが理論的に証明されているモデル(関数)を用いる。このようなモデルとしては、PNL(Post NonLinear)モデルが知られている。PNLモデルは、理論証明の検証がなされているモデルの中で、表現能力が高いモデルである。理論証明がなされているPNLモデルによりモデル推定を行うことによって、対象のデータ間が因果関係を有するか否かという因果説明を探索することができる。
Kun Zhang and Aapo Hyvarinen,"Distinguishing Causes from Effects using Nonlinear Acyclic Causal Models",JMLR Workshop and Conference Proceedings 6:157-164,2007
ところで、PNLモデルの理論証明は、無限のデータの存在を前提とするものであり、現実の有限のデータから因果関係を有するかを判定するためには、PNLモデルに用いる関数が適切に選択されている必要がある。しかしながら、一般的な関数探索の手法では、関数が適切であるかは保証されないので、探索された関数を適用したPNLモデルでは、データ間の因果関係を正確に判定することができない場合がある。
一つの側面では、適切な関数を推定することができる更新プログラム、更新方法および情報処理装置を提供することを目的とする。
第1の案では、更新プログラムは、コンピュータに、第1変数を第1のモデルの入力変数とした場合の出力値から第2変数を第2のモデルの入力変数としたときに得られる出力値を減じた値を第3変数の推定値とした場合に、前記第2変数と前記第3変数の推定値との独立性が最大となるように、前記第1のモデルおよび前記第2のモデルのパラメータである第1のパラメータを更新する処理を実行させる。更新プログラムは、コンピュータに、前記第1のモデルパラメータ更新の実行過程において、前記第1変数を前記第1のモデルの入力変数とした場合に得られる出力値を第3のモデルの入力変数として得られる出力値が前記第1変数に近づくように前記第1のモデルのパラメータである第2のパラメータおよび前記第3のモデルのパラメータである第3のパラメータを更新する処理を実行させる。
一実施形態によれば、データ間の因果関係を正確に推定することができる。
図1は、実施例1にかかる因果関係の推定を説明する図である。 図2は、一般的なモデル推定を説明する図である。 図3は、実施例1にかかる情報処理装置の機能構成を示す機能ブロック図である。 図4は、実施例1で用いるモデル化を説明する図である。 図5は、実施例1にかかる処理の流れを示すフローチャートである。 図6は、ハードウェア構成例を説明する図である。
以下に、本願の開示する更新プログラム、更新方法および情報処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
[全体構成]
図1は、実施例1にかかる因果関係の推定を説明する図である。実施例1で説明する情報処理装置は、データ間の因果探索を実行するコンピュータ装置である。具体的には、情報処理装置は、データ間の因果関係を表すPNL(Post NonLiner)モデルに適応する関数を推定するモデル推定(以下では、関数探索、関数推定と記載する場合がある)を実行し、推定された関数を適応したPNLモデルを用いて、データ間の因果関係を探索する。すなわち、情報処理装置は、データ間の因果探索において、PNLモデルが満たすべきすべての仮定を充足するようなパラメータを最適化により推定することで、その充足の度合いに応じて因果方向を判定する。
ここで、PNLモデルを用いた因果探索、PNLモデルに適用する関数を推定するモデル推定、一般的なモデル推定による問題点を順に説明する。
(因果探索)
ここで、一般的な関数探索によるモデル推定の問題点について説明する。まず、PNLモデルについて説明する。PNLモデルは、データ間の因果関係を表すモデル(関数)である。例えば、xからy(x→y)に因果関係があるとすると、非線形関数fとfを用いて、式(1)と定義できるとする。このとき、[仮定1]原因xとノイズeは独立、[仮定2]fは可逆関数の両仮定を満たすとする。
Figure 0007180520000001
これらの仮定を満たす関数を適応したPNLモデルを用いて、データ間の因果関係を判定する。例えば、データ(x,y)について、データ間の関係がPNLモデルで記述できうるとする。そして、(1)因果関係がxからy(x→y)であると仮定してPNLモデル(関数f,f -1)を具体的に推定し、(2)因果関係がyからx(y→x)であると仮定してPNLモデル(関数f,f -1)を具体的に推定する。その後、(1)と(2)のうち、実データに合致する、すなわちPNLモデルの仮定をより満たす方向を因果の方向(因果の向き)と判定する。
上述したように、PNLモデルによる因果方向の判定においては、上記仮定1および仮定2を満たす関数(モデル)が必要であることから、これらの仮定を満たす関数を推定すること(モデル推定)が行われる。
(一般的なモデル推定)
次に、図2を用いて、一般的なモデル推定を説明する。図2は、一般的なモデル推定を説明する図である。具体的には、PNLモデルの[仮定1]を満たすモデル推定を実行する。ここでは、式(1)に示したPNLモデルの式(2)における2つの関数を推定する。例えば、関数fと関数f -1をパラメトリックモデルとして定めることで式(2)のパラメータを、[仮定1:原因xとノイズeは独立]が満たされるように、最適化で求める。なお、パラメトリックモデルとしては、ニューラルネットワークや線形モデルなどの学習モデル(機械学習)を利用することができる。
Figure 0007180520000002
詳細には、図2に示すように、式(2)における第1変数(y)を第1のモデル(f -1)に入力した場合の出力値から、第2変数(x)を第2のモデル(f)の入力変数としたときに得られる出力値を減じた値を第3変数(e)の推定値とする。そして、第2変数(y)と第3変数(e)の推定値との独立性が最大となるように、各パラメトリックモデルのパラメータを更新する。
つまり、入力データxとノイズeとを比較する独立性比較指標[I(x,e)]を式(3)に示す誤差関数(目的関数)により最適化する。すなわち、独立性評価指標が最小となる(xとeが独立になる)ように、各学習モデルを学習する。
Figure 0007180520000003
このような手法で関数を推定した場合、推定結果が不適切な関数となる場合がある。例えば、関数fと関数f -1とが定数関数になると、xとeは独立になるが、PNLモデル[仮定2]に反するので、推定結果が正しい因果関係である保証が崩れる(問題点1)。また、関数f -1のモデル化において[仮定2]を満たすように限定することも考えられるが、本来推定したい関数が含まれない範囲に限定してしまう恐れがある(問題点2)。この結果、関数が正しく推定できず、正しく因果の方向も正しく判定できなくなる。
(一般的なモデル推定による問題点1)
次に、具体的な例を用いて、問題点1を説明する。一例として、xからy(x→y)に因果関係があり、本来は未知であるが真の関係が上記式(1)で表されるものとする。つまり、ここでは、この因果の方向(x→y)をモデル推定から判定する例を説明する。
このときの式(1)における関数および変数の条件を式(4)とする。なお、U(a,b)は区間(a,b)の一様分布であり、各関数および変数はPNLモデルに従っているとする。式(4)の場合、変数xとノイズeは、0より大きく1未満からランダムに選択される。
Figure 0007180520000004
ここでは、fおよびf -1をニューラルネットワーク(NN:Neural Network)でモデル化し、独立性評価指標I(x,e)をHSIC(Hilbert Schmidt Independence Criterion)を利用し、勾配法で各NNを推定する。すなわち、学習データを用いて、式(3)の誤差関数を最小化するようにNNのパラメータを最適化する。
まず、因果の方向が「xからy(x→y)」と仮定してモデル推定を実行する。例えば、以下の推定結果[a]、[b]となる場合に、I(x,e)=0(最小値)となる。[a]f(x)がxと近似的に等しく、f -1(z)がz1/3と近似的に等しいときのように、各NNが真の関数を近似できた場合(真の関数に等しければxとeは独立となる)、[b]f(x)=3、f -1(z)=4などのように、各NNが定数関数となった場合(変数xと変数eは独立となる)。
次に、因果の方向が「yからx(y→x)」と仮定してモデル推定を実行する。例えば、以下の推定結果[c]となる場合に、I(x,e)=0(最小値)となる。[c]f(y)=2、f -1(z)=5などのように、各NNが定数関数となった場合。
したがって、いずれの因果の方向であっても、独立性評価指標を最小化する関数が見つかるので、正しい因果の方向(x→y)と間違った因果の方向(y→x)を識別できない。また、[b]や[c]の結果は、そもそもPNLモデルの仮定2に反するので、理論的に求まる解が保証できない。
このように、変数xとノイズeの独立性を満たすという観点のみでモデル推定を行うと、定数関数となってしまうので、PNLモデルの制約を満たすこともできず、データ間の因果関係を判定できない。
(一般的なモデル推定による問題点2)
次に、上記問題点1と同様の条件を用いて、問題点2を説明する。具体的には、あらかじめ関数f -1のモデルに制約を課すことで、取りうる関数の範囲を限定する。
例えば、f -1を逆関数に持つ関数を、例えばa≠0(aは0ではない)をパラメータとする線形関数f -1(z;a)=a*zに限定することで、必ず最終的な関数は仮定2を充足する。しかし、この線形関数では、真の関数f -1(z)=z1/3を表現できていない。したがって、正しい因果の方向(x→y)を仮定しても、独立評価指数であるI(x,e)を0にできないので、因果の方向が(x→y)か(y→x)かを正しく判定できないおそれがある。
(実施例1による手法)
上述したように、一般的なモデル推定では、PNLモデルの制約を満たせない場合が発生するので、判定された因果の方向が正しい判定なのかを保証できない。そこで、実施例1では、逆変換器を追加し、逆関数になるように学習することで、結果的に[仮定2]の逆関数が存在する範囲でモデル推定を実行する。
具体的には、図2に示すように、情報処理装置は、一般的な手法と同様に式(2)をモデル化し、生成したモデルに逆変換器を追加した拡張モデル化を実行する。そして、情報処理装置は、学習データを用いた拡張モデル内のNNなどのパラメータを学習し、モデル推定を実行する。
その後、情報処理装置は、モデル推定で得られた関数をPNLモデルに適用する。そして、情報処理装置は、当該PNLモデルを用いて、対象データ間の因果関係を判定する。この結果、適切な関数を推定してPNLモデルに適用することができるので、データ間の因果関係を正確に判定することができる。
[情報処理装置の機能構成]
次に、図1で説明した情報処理装置について説明する。図3は、実施例1にかかる情報処理装置10の機能構成を示す機能ブロック図である。図3に示すように、情報処理装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、処理の開始指示や各種データを管理者端末等から受信し、学習結果や因果関係の判定結果などを管理者端末に送信する。
記憶部12は、各種データや制御部20が実行する各種プログラムを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、学習データDB13、学習結果DB14、判定結果DB15を記憶する。
学習データDB13は、後述するNNや線形モデルなどの学習に利用される学習データを記憶するデータベースである。ここで記憶される情報は、管理者等により格納される。なお、学習データの構成は、一般的な機械学習と同様、入力データと出力データとが対応付けられたデータを用いることができる。
学習結果DB14は、後述するNNや線形モデルなどの学習結果を記憶するデータベースである。例えば、学習結果DB14は、後述する学習部22により格納されたNNの各種パラメータなどを記憶する。判定結果DB15は、データ間の因果関係の判定結果を記憶するデータベースである。ここで記憶される情報は、後述する判定部23により格納される。
制御部20は、情報処理装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、構築部21、学習部22、判定部23を有する。なお、構築部21、学習部22、判定部23は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。
構築部21は、PNLモデルに適用する関数を推定するためのモデルを構築する処理部である。具体的には、構築部21は、一般的な手法と同様に式(2)をモデル化し、生成したモデルに逆変換器を追加した拡張モデル化を実行する。
図4は、実施例1で用いるモデル化を説明する図である。図4に示すように、構築部21は、PNLモデルの式(2)における2つの関数fと関数f -1をNNでモデル化するとともに、関数f -1の出力を逆変換する逆変換器fを追加し、逆変換器fもNNでモデル化する。なお、fとf -1とは明示的に逆関数になるようにモデル化する必要はなく、学習の過程もしくは学習の結果で逆関数に近づく。
具体的には、図2と同様、構築部21は、式(2)における第1変数(y)を第1のモデル(f -1)に入力した場合の出力値から、第2変数(x)を第2のモデル(f)の入力変数としたときに得られる出力値を減算した値(減じた値)を第3変数(e)の推定値を取得するモデルを生成する。さらに、構築部21は、当該モデルに対して、第1変数(y)を第1のモデル(f -1)の入力変数とした場合に得られる出力値を、第3のモデル(f)の入力変数としたときに出力値(y´)が得られる逆変換器を追加する。
学習部22は、学習データDB13に記憶される各学習データを用いて、構築部21により構築されたモデルの各NNを学習する処理部である。例えば、学習部22は、図4に示すモデルにおいて、NN(関数f)への入力データxと当該NNからの出力データであるノイズeとの間の評価指標である独立性評価指標I(x,e)と、NN(関数f -1)への入力データyと当該NNからの出力を入力とするNN(関数f)からの出力データy´との間の評価指標である可逆性評価指標S(y,y´)とが0(最小)になるように、学習する。
具体的には、学習部22は、「min[xとeが独立ではない度合い]+λ*[fが可逆ではない度合い]」で示される式(5)の誤差関数(目的関数)を最適化する。なお、λは、両者のバランスを取るための係数であり、0より大きい任意の値である。つまり、学習部22は、一般的なモデル推定で実行される独立性評価指標I(x,e)に基づくNNのパラメータ更新の過程において、可逆性評価指標S(y,y´)に基づくパラメータ更新を入れ込む。
Figure 0007180520000005
ここで、独立性評価指標I(x,e)には、相互情報量(MI:Mutual Information)やHSIC(Hilbert-Schmidt Independence Criterion)などを用いることができる。例えば、確率密度関数推定などが可能である場合や、関数fやfで直接確率密度関数をモデル化する場合には相互情報量が有効であり、データのみから独立性を評価する場合には、HSICが有効である。
また、可逆性評価指標S(y,y´)に関して、判定対象が一般のデータの場合には二乗誤差(MSE:Mean Squared Error)などを用いることができ、判定対象が画像データの場合にはSSIM(Structural Similarity)などを用いることができる。
そして、学習部22は、学習データを図4のモデルに入力し、式(5)が最小化するように学習を実行し、学習が終了すると、学習結果を学習結果DB14に格納する。なお、学習を終了するタイミングは、所定数の学習データを用いた学習が終了した場合、式(5)の値が所定値以下となった場合など、任意に設定することができる。
判定部23は、PNLモデルを用いて、対象データ間の因果関係を判定する処理部である。具体的には、判定部23は、学習結果DB14から学習結果を読み出し、学習により得られたパラメータを設定した関数を生成する。そして、判定部23は、当該関数を適用したPNLモデル(関数f,関数f -1)を構築する。続いて、判定部23は、構築したPNLモデルに判定対象のデータを入力して判定結果を取得し、判定結果を判定結果DB15に格納する。
例えば、判定部23は、θ=0.01などと定義して、データxとデータyの因果関係を判定する場合、(1)因果関係がxからy(x→y)であると仮定してPNLモデル(関数f,f -1)を具体的に推定する。続いて、判定部23は、(2)因果関係がyからx(y→x)であると仮定してPNLモデル(関数f,f -1)を具体的に推定する。その後、判定部23は、(1)と(2)のうち、PNLモデルの仮定をより満たす方向を因果の方向(因果の向き)と判定する。
詳細には、判定部23は、データ間の判定結果とスコア(式(5)の値)とを表示することもできる。例えば、判定部23は、データAとデータBの因果関係の判定結果として、「データA→データB,スコア(0.05)」と「データB→データA,スコア(0.39)」などを生成して、判定結果を視覚的にディスプレイ等に表示することもできる。
また、データ間の因果関係の判定例としては、血液検査の各項目と発熱との因果関係を判定し、どの項目に対応する処置を行えば効果的に解熱できるかを特定することが考えられる。また、店舗内のお客の人数、駐車場の車の台数、クーポンの発券数などの各項目と売上との因果関係を特定し、売上を上げるためにはどの項目を実行すればよいかを特定することが考えられる。
[問題点の改善]
次に、実施例1による手法により、同様の条件で、一般手法で発生する問題点1および問題点2が改善することを説明する。ここでは、関数f、f、f -1をNNでモデル化し、独立性評価指標I(x,e)としてHSICを利用し、可逆性評価指標S(y,y´)として二乗誤差を利用し、勾配法で各NNを推定する。
まず、データxとデータyにおいて、xからy(x→y)に因果の方向があると仮定して推定する。例えば、f(x)がxで近似的に等しく、f -1(y)がy1/3で近似的に等しいなど、各NNが真の関数を近似できた場合、式(5)を0(最小値)とすることができる。なお、定数関数の場合、eが定数となり独立性評価指標I(x,e)=0となるが、f -1(y)が定数なので、y´=f(f -1(y))≠yとなり、可逆性評価指標S(y,y´)=0を達成できないので、実施例1による手法では、定数関数を除外して仮定1を満たすことができる。
次に、データxとデータyにおいて、yからx(y→x)に因果の方向があると仮定して推定する。この場合、式(5)の誤差関数「I(x,y)+λS(y,y´)」=0となる関数は、残差が存在するので、生成することができない。
したがって、実施例1による手法では、関数fと関数f -1とが逆関数となるように学習されるので、仮定2を満たす。この結果、実施例1による手法では、仮定1と仮定2を満たすとともに、適切なモデル(関数)を推定してPNLモデルに適用できるので、データxとデータyにおいて、xからy(x→y)に因果の方向があると正しく判定することができる。
[処理の流れ]
図5は、実施例1にかかる処理の流れを示すフローチャートである。ここでは、学習処理を実行した後に、因果関係の判定処理を行う一連の流れを説明するが、これに限定されず、各処理は別々のタイミングで実行することができる。
図5に示すように、構築部21は、処理開始が指示されると(S101:Yes)、NLモデルの式(2)における2つの関数fと関数f -1をNNでモデル化するとともに、関数f -1の出力を逆変換する逆変換器fを追加したモデル化を実行する(S102)。
続いて、学習部22は、学習データを用いて、誤差が最小になるように、構築されたモデル内の各NNを学習し(S103)、学習が完了すると、学習結果を学習結果DB14に格納する(S104)。
その後、判定部23は、判定対象のデータを取得し、判定処理の開始が指示されると(S105:Yes)、学習結果を用いた関数を適用したPNLモデルを構築する(S106)。
そして、判定部23は、構築したPNLモデルを用いて、判定対象データの因果関係を判定(推定)し(S107)、判定した因果関係を判定結果DB15に格納したり、ディスプレイ等の表示部に表示したりする(S108)。
[効果]
上述したように、情報処理装置10は、PNLモデルを仮定してデータから因果探索をする際、逆変換器を同時に学習することで逆関数の存在仮定を満たす関数を推定することができる。したがって、情報処理装置10は、逆関数の存在性の度合いを定量化することができ、関数を正解に推定することができる。この結果、情報処理装置10は、データ間の因果方向の判定のためにPNLモデルを仮定してデータ間の因果関係をデータから判定することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[データや数値等]
上記実施例で用いたデータ例、数値例、表示例等は、あくまで一例であり、任意に変更することができる。また、入力データや学習方法などもあくまで一例であり、任意に変更することができる。
また、関数f、f、f -1のモデル化には、NNや線形モデルなどを採用することができる。NNは、あらかじめ強い非線形関係などが判明している場合に有効であり、近似可能な関数の自由度が高いため、複雑な関係を推定することができる。線形モデルは、未知のデータに対する最初の簡単な試行などに有効であり、最適化(学習)が容易であり、学習処理の高速化が図れる。
[学習データの例]
上記学習データには様々な分野のデータを採用することができるので、その一例を説明するが、あくまで一例であり、これらに限定されるものではない。ここでは、xからyに因果関係(x→y)があるもしくはあると想定される例を例示する。
例えば、医療の分野の場合、病状をx、体温などの検査項目をy、測定機器のノイズなどをeとする学習データを用いることができる。また、経済の分野では、顧客のポイントカード所持率をx、店舗の売上をy、天気などのその他の原因因子をeとする学習データを用いることができる。また、材料の分野では、分子構造をx、材料強度をy、測定機器のノイズをeとする学習データを用いることができる。また、製造の分野では、製造温度をx、製品の品質をy、測定機器のノイズをeとする学習データを用いることができる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
図6は、ハードウェア構成例を説明する図である。図6に示すように、情報処理装置10は、通信装置10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図6に示した各部は、バス等で相互に接続される。
通信装置10aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図3に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させる。例えば、このプロセスは、情報処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、構築部21、学習部22、判定部23等と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、構築部21、学習部22、判定部23等と同様の処理を実行するプロセスを実行する。
このように、情報処理装置10は、プログラムを読み出して実行することで探索方法を実行する情報処理装置として動作する。また、情報処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、情報処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 情報処理装置
11 通信部
12 記憶部
13 学習データDB
14 学習結果DB
15 判定結果DB
20 制御部
21 構築部
22 学習部
23 判定部

Claims (9)

  1. コンピュータに、
    第1変数を第1のモデルの入力変数とした場合の出力値から第2変数を第2のモデルの入力変数としたときに得られる出力値を減じた値を第3変数の推定値とした場合に、前記第2変数と前記第3変数の推定値との独立性が最大となるように、前記第1のモデルおよび前記第2のモデルのパラメータである第1のパラメータを更新し、
    前記第1のパラメータの更新過程において、前記第1変数を前記第1のモデルの入力変数とした場合に得られる出力値を第3のモデルの入力変数として得られる出力値が前記第1変数に近づくように前記第1のモデルのパラメータである第2のパラメータおよび前記第3のモデルのパラメータである第3のパラメータを更新する、
    処理を実行させることを特徴とする更新プログラム。
  2. 前記更新する処理は、前記第1のパラメータを更新する第1パラメータ更新過程に、前記第2のパラメータおよび前記第3のパラメータを更新する第1パラメータ更新処理を組み込んで、前記第1のパラメータと前記第2のパラメータと前記第3のパラメータとを同時に更新することを特徴とする請求項1に記載の更新プログラム。
  3. 第1データと第2データとの間の因果関係を判定する場合、パラメータ更新済みの前記第1のモデルとパラメータ更新済みの第2のモデルとを用いてPNL(Post NonLinear)モデルを構築し、
    前記第1データと前記第2データとを前記PNLモデルに入力して得られる結果に基づいて、前記第1データと前記第2データとの間の因果関係を判定することを特徴とする請求項1に記載の更新プログラム。
  4. 前記第2変数と前記第3変数の推定値との第1誤差が最小化するように前記第1のパラメータの更新を実行するとともに、前記出力値と前記第1変数との第2誤差が最小化するように前記第2のパラメータおよび前記第3のパラメータの更新を実行する、処理を前記コンピュータに実行させることを特徴とする請求項1に記載の更新プログラム。
  5. 前記第1のモデル、前記第2のモデル、前記第3のモデルそれぞれを、ニューラルネットワークまたは線形モデルを用いてモデル化する処理を、処理を前記コンピュータに実行させ、
    前記実行する処理は、予め用意された学習データを用いて、前記第1誤差が最小化するように、前記ニューラルネットワークまたは前記線形モデルのパラメータを学習し、
    前記実行する処理は、前記学習データを用いて、前記第2誤差が最小化するように、前記ニューラルネットワークまたは前記線形モデルのパラメータを学習することを特徴とする請求項4に記載の更新プログラム。
  6. 前記実行する処理は、相互情報量またはHSIC(Hilbert-Schmidt Independence Criterion)を用いて、前記第1誤差が最小化するように学習し、
    前記実行する処理は、二乗誤差を用いて、前記第2誤差が最小化するように学習することを特徴とする請求項5に記載の更新プログラム。
  7. 第1データと第2データとの間の因果関係を判定する場合、学習済みの前記第1のモデルと学習済みの第2のモデルとを用いてPNLモデルを構築し、
    前記第1データと前記第2データとを前記PNLモデルに入力して得られる結果に基づいて、前記第1データと前記第2データとの間の因果関係を判定することを特徴とする請求項6に記載の更新プログラム。
  8. コンピュータが、
    第1変数を第1のモデルの入力変数とした場合の出力値から第2変数を第2のモデルの入力変数としたときに得られる出力値を減じた値を第3変数の推定値とした場合に、前記第2変数と前記第3変数の推定値との独立性が最大となるように、前記第1のモデルおよび前記第2のモデルのパラメータである第1のパラメータを更新し、
    前記第1のパラメータの更新過程において、前記第1変数を前記第1のモデルの入力変数とした場合に得られる出力値を第3のモデルの入力変数として得られる出力値が前記第1変数に近づくように前記第1のモデルのパラメータである第2のパラメータおよび前記第3のモデルのパラメータである第3のパラメータを更新する、
    処理を実行することを特徴とする更新方法。
  9. 第1変数を第1のモデルの入力変数とした場合の出力値から第2変数を第2のモデルの入力変数としたときに得られる出力値を減じた値を第3変数の推定値とした場合に、前記第2変数と前記第3変数の推定値との独立性が最大となるように、前記第1のモデルおよび前記第2のモデルのパラメータである第1のパラメータを更新する第1更新部と、
    前記第1のパラメータの更新過程において、前記第1変数を前記第1のモデルの入力変数とした場合に得られる出力値を第3のモデルの入力変数として得られる出力値が前記第1変数に近づくように前記第1のモデルのパラメータである第2のパラメータおよび前記第3のモデルのパラメータである第3のパラメータを更新する第2更新部と、
    を有することを特徴とする情報処理装置。
JP2019078861A 2019-04-17 2019-04-17 更新プログラム、更新方法および情報処理装置 Active JP7180520B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019078861A JP7180520B2 (ja) 2019-04-17 2019-04-17 更新プログラム、更新方法および情報処理装置
US16/840,635 US11481606B2 (en) 2019-04-17 2020-04-06 Method of updating parameters and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019078861A JP7180520B2 (ja) 2019-04-17 2019-04-17 更新プログラム、更新方法および情報処理装置

Publications (2)

Publication Number Publication Date
JP2020177427A JP2020177427A (ja) 2020-10-29
JP7180520B2 true JP7180520B2 (ja) 2022-11-30

Family

ID=72832550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019078861A Active JP7180520B2 (ja) 2019-04-17 2019-04-17 更新プログラム、更新方法および情報処理装置

Country Status (2)

Country Link
US (1) US11481606B2 (ja)
JP (1) JP7180520B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7529739B2 (ja) 2022-09-30 2024-08-06 株式会社日立製作所 モデル更新方法及びモデル更新システム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012241B2 (ja) 2007-06-15 2012-08-29 トヨタ自動車株式会社 車両用自動変速機のオイルストレーナ
WO2015145997A1 (ja) 2014-03-28 2015-10-01 日本電気株式会社 属性変換装置、属性変換方法、学習装置、及び、記録媒体

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0512241A (ja) * 1991-06-28 1993-01-22 Matsushita Electric Ind Co Ltd 信号処理装置
US9798751B2 (en) * 2013-10-16 2017-10-24 University Of Tennessee Research Foundation Method and apparatus for constructing a neuroscience-inspired artificial neural network
JP6561455B2 (ja) * 2014-11-19 2019-08-21 横浜ゴム株式会社 データの分析方法およびデータの表示方法
AU2019393332A1 (en) * 2018-12-06 2021-06-03 Saber Astronautics Australia Pty. Ltd. A method and a system for assessing aspects of an electromagnetic signal
US11109083B2 (en) * 2019-01-25 2021-08-31 Adobe Inc. Utilizing a deep generative model with task embedding for personalized targeting of digital content through multiple channels across client devices
US20200250511A1 (en) * 2019-02-01 2020-08-06 Zhaoyang Hu Artist comprehensive ability evaluation and cultivation assistant system based on artificial intelligence

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5012241B2 (ja) 2007-06-15 2012-08-29 トヨタ自動車株式会社 車両用自動変速機のオイルストレーナ
WO2015145997A1 (ja) 2014-03-28 2015-10-01 日本電気株式会社 属性変換装置、属性変換方法、学習装置、及び、記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Zhang, Kun et al.,"Distinguishing Causes from Effects using Nonlinear Acyclic Causal Models",Proceedings of Workshop on Causality: Objectives and Assessment at NIPS 2008 [online],Volume 6,PMLR,2010年,pp.157-164,[2022.10.11 検索], インターネット:<URL: http://proceedings.mlr.press/v6/zhang10a/zhang10a.pdf>

Also Published As

Publication number Publication date
US11481606B2 (en) 2022-10-25
JP2020177427A (ja) 2020-10-29
US20200334517A1 (en) 2020-10-22

Similar Documents

Publication Publication Date Title
JP5815458B2 (ja) 報酬関数推定装置、報酬関数推定方法、およびプログラム
CN109478263A (zh) 用于体系结构评估和策略执行的系统和设备
US10467221B2 (en) Software function verification system and software function verification method
Araújo et al. Hybrid morphological methodology for software development cost estimation
US20160255109A1 (en) Detection method and apparatus
JP7059220B2 (ja) 機械学習プログラム検証装置および機械学習プログラム検証方法
US10635078B2 (en) Simulation system, simulation method, and simulation program
CN111626489A (zh) 基于时序差分学习算法的最短路径规划方法和装置
JP7180520B2 (ja) 更新プログラム、更新方法および情報処理装置
CN115691652A (zh) 一种基于多样本数据的因果关系预测方法
JP6919856B2 (ja) 強化学習プログラム、強化学習方法、および強化学習装置
JP2017227994A (ja) 人流予測装置、パラメータ推定装置、方法、及びプログラム
CN111241297A (zh) 一种基于标签传播算法的图谱数据处理方法及装置
EP4116853A1 (en) Computer-readable recording medium storing evaluation program, evaluation method, and information processing device
CN116049733A (zh) 基于神经网络的效能评估方法、系统、设备与存储介质
US11055448B2 (en) Systems and methods for SMT processes using uninterpreted function symbols
Sagaama et al. Automatic parameter tuning for big data pipelines with deep reinforcement learning
JP2020071493A (ja) 結果予測装置、結果予測方法、及びプログラム
CN111815442B (zh) 一种链接预测的方法、装置和电子设备
KR101510990B1 (ko) 노드 오더링 방법 및 그 장치
WO2024180746A1 (ja) 因果探索プログラム、因果探索方法および情報処理装置
CN110795936B (zh) 词向量的获取方法和装置、存储介质及电子装置
CN110637309A (zh) 推断程序、推断方法以及推断装置
Kemp Gamma test analysis tools for non-linear time series
WO2023166564A1 (ja) 推定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220111

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221012

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221031

R150 Certificate of patent or registration of utility model

Ref document number: 7180520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150