JP6760200B2 - 推定プログラム、推定方法および推定装置 - Google Patents

推定プログラム、推定方法および推定装置 Download PDF

Info

Publication number
JP6760200B2
JP6760200B2 JP2017097669A JP2017097669A JP6760200B2 JP 6760200 B2 JP6760200 B2 JP 6760200B2 JP 2017097669 A JP2017097669 A JP 2017097669A JP 2017097669 A JP2017097669 A JP 2017097669A JP 6760200 B2 JP6760200 B2 JP 6760200B2
Authority
JP
Japan
Prior art keywords
value
estimator
result value
error
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017097669A
Other languages
English (en)
Other versions
JP2018195029A (ja
Inventor
孝 河東
孝 河東
健人 上村
健人 上村
優 安富
優 安富
遠藤 利生
利生 遠藤
弘治 丸橋
弘治 丸橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2017097669A priority Critical patent/JP6760200B2/ja
Priority to CN201880028353.9A priority patent/CN110637309A/zh
Priority to PCT/JP2018/016379 priority patent/WO2018211914A1/ja
Publication of JP2018195029A publication Critical patent/JP2018195029A/ja
Priority to US16/653,236 priority patent/US20200042876A1/en
Application granted granted Critical
Publication of JP6760200B2 publication Critical patent/JP6760200B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0275Fault isolation and identification, e.g. classify fault; estimate cause or root of failure
    • G05B23/0281Quantitative, e.g. mathematical distance; Clustering; Neural networks; Statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3457Performance evaluation by simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49181Calculation, estimation, creation of error model using measured error values

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Hardware Design (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • Pure & Applied Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Description

本発明は、推定プログラム、推定方法および推定装置に関する。
従来から、災害の分析やテーラーメード医療など様々な分野で、ある状態(y)を実現するための入力パラメータ(x)を探索するシミュレーション技術が使用されている。例えば、過去のシミュレーションの実行結果である入力と出力の組を訓練データとして使用して、出力から入力を推定する推定器を学習する。そして、学習した推定器を使用して、求めたい出力(y)を出力する入力(x)を推定する。
特開2011−185880号公報 特開2016−8564号公報 特開2004−62440号公報
しかしながら、上記技術では、求めたい値が訓練データから離れており、推定器が推定可能な範囲を逸脱している場合、推定精度が劣化する。
例えば、洪水などの極端な状況(y)を発生させるパラメータ(x)を推定する場合、極端な状況(y)が過去のシミュレーション結果に含まれない可能性が高く、そのような場合は、推定されたパラメータ(x)が訓練データからかけ離れたものとなり、信頼性が低下する。また、出力(y)が実データに一致するパラメータ(x)を推定する場合、実データがシミュレータによって実現可能な範囲に含まれるとは限らず、訓練データから逸脱している可能性がある。なお、多種多様かつ膨大な訓練データを予め用意することも考えられるが、非常に時間がかかり、現実的ではない。
一つの側面では、推定精度を向上させることができる推定プログラム、推定方法および推定装置を提供することを目的とする。
第1の案では、推定プログラムは、過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定プログラムであって、特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出する処理をコンピュータに実行させる。推定プログラムは、前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索する処理をコンピュータに実行させる。推定プログラムは、前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する処理をコンピュータに実行させる。
一実施形態によれば、推定精度を向上させることができる。
図1は、実施例1にかかるシミュレーション装置の機能構成を示す機能ブロック図である。 図2は、訓練データDBに記憶される訓練データの例を示す図である。 図3は、テストデータDBに記憶されるテストデータの例を示す図である。 図4は、想定する訓練データとテストデータの関係を説明する図である。 図5は、推定器の学習を説明する図である。 図6は、シミュレーションを説明する図である。 図7は、再構成誤差の算出を説明する図である。 図8は、代用データの生成を説明する図である。 図9は、実施例1にかかるシミュレーションを説明する図である。 図10は、処理の流れを示すフローチャートである。 図11は、推定値の比較を説明する図である。 図12は、推定器の学習の別例を説明する図である。 図13は、ハードウェア構成例を示す図である。
以下に、本願の開示する推定プログラム、推定方法および推定装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではなく、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
実施例1にかかるシミュレーション装置10は、シミュレータ等のブラックボックス関数に対して、ある出力に対応する入力を高精度に推定するためのコンピュータ装置である。例えば、シミュレーション装置10は、過去のシミュレーション結果に含まれない洪水などの極端な状況を発生させるパラメータの推定、出力が実データに一致するパラメータの推定などに用いられる。
一般的に、単純なシミュレータの入力パラメータの予測問題として考えた場合、出力(y)に対する予測結果(x)の誤差の最小化を目指してシミュレーションが実行される。しかし、実際は推定パラメータ(x)の誤差は重要ではなく、(x)をシミュレータに適用した場合の結果s(x)と予測対象(y)の誤差の最小化が重要である。
そこで、実施例1にかかるシミュレーション装置10は、本来推定したいデータではなく、精度よく推定可能な範囲内にある似たデータを代わりに推定する。具体的には、シミュレーション装置10は、実際の推定対象(y)を推定する問題を直接解かずに、訓練データから推定可能であり、(y)になるべく近い別の(y´)を推定する問題に置き換えて解く。例えば、シミュレーション装置10は、ある入力(x)をブラックボックス関数s(x)に適用した場合の誤差(適用誤差)の見積もりを行う。そして、シミュレーション装置10は、実際の推定対象(y)の代わりに、適用誤差が小さいと見積もられる範囲に存在し、(y)の近傍にある近傍値である代用データ(y´)に対する入力(x)を推定する。
すなわち、シミュレーション装置10は、入力から出力を推定する推定器の学習と、出力から入力を推定する推定器の学習とを併用して、精度よく推定可能な出力の範囲を見積もることで、求めたい値が訓練データの集合から離れており、推定器が推定可能な範囲を逸脱している場合でも、推定精度の劣化を抑制する。
[機能構成]
図1は、実施例1にかかるシミュレーション装置10の機能構成を示す機能ブロック図である。図1に示すように、シミュレーション装置10は、通信部11、記憶部12、制御部20を有する。なお、シミュレーション装置10は、これら以外にも、表示部や入力部などを有していてもよい。
通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者端末などから処理開始の指示を受信し、訓練データやテストデータの入力を受け付け、推定結果を管理者端末に送信する。
記憶部12は、プログラムやデータなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。記憶部12は、訓練データDB13、テストデータDB14、推定結果DB15を記憶する。
訓練データDB13は、過去のシミュレーションの実行結果である入力と出力の組を訓練データとして記憶するデータベースである。図2は、訓練データDB13に記憶される訓練データの例を示す図である。図2に示すように、訓練データDB13は、「入力、出力(y1、y2)」を記憶する。「入力」は、シミュレータ等の未知の関数であるブラックボックス関数(s(x))への入力であり、「出力」は、入力(x)をブラックボックス関数に入力したときの出力である。図2の例では、ブラックボックス関数(s(x))に、x=0.0を入力したときのシミュレーション結果が(y1=0.4,y2=0.1)であることを示す。なお、ブラックボックス関数(s(x))は、未知の関数であるが、例えば「y1=2x+ε、y2=x+ε、εはノイズ」などが想定される。
テストデータDB14は、想定される実データを記憶するデータベースである。図3は、テストデータDB14に記憶されるテストデータの例を示す図である。図3に示すように、テストデータDB14は、「入力、出力(y1、y2)」を記憶する。「入力」は、出力を得るための入力値であり、「出力」は、入力をブラックボックス関数に入力したときの出力である。図3に示すように、出力が既知で、入力が不明であることから、ここでは、ブラックボックス関数(s(x))から生成された訓練データを学習し、できるだけテストデータに近い出力(y1,y2)を生成する入力(x)を求める。
ここで、実施例1が想定する、訓練データとテストデータとの関係を説明する。図4は、想定する訓練データとテストデータの関係を説明する図である。図4に示すように、テストデータは、訓練データの分布から離れた出力値である。したがって、テストデータは、推定器が推定可能な範囲を逸脱しているので、従来手法でシミュレーションを実行しても、推定精度が悪くなる値である。
推定結果DB15は、後述する制御部20による推定結果を記憶するデータベースである。例えば、推定結果DB15は、後述する合計誤差が閾値未満となったときの入力の推定器enc(y1,y2)の推定値を記憶する。
制御部20は、シミュレーション装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、訓練部21と入力推定部22と出力推定部23と代用データ生成部24とを有する。なお、訓練部21と入力推定部22と出力推定部23と代用データ生成部24は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。また、代用データ生成部24は、算出部と探索部と出力部の一例である。
訓練部21は、訓練データを用いて入力の推定器enc(y)を学習し、訓練データを用いて出力の推定器dec(x)を学習する処理部である。図5は、推定器の学習を説明する図である。図5に示すように、訓練部21は、訓練データDB13に記憶される訓練データの出力(y1,y2)を、入力の推定器enc(y1,y2)に代入して、入力(x)を学習する。また、訓練部21は、訓練データDB13に記憶される訓練データの入力(x)を、出力の推定器dec(x)に代入して、出力(y1,y2)を学習する。なお、実施例1では、各推定器として線形学習器(単純パーセプトロン)を用いるが、これに限定されるものではなく、公知の様々な学習器を採用することができる。
入力推定部22は、入力の推定器enc(y)を用いて、出力(y)から入力(x)を推定する処理部である。例えば、入力推定部22は、訓練部21によって学習した推定器enc(y)にテストデータの出力(y1,y2)を適用して、入力(x)を推定する。そして、入力推定部22は、推定した入力(x)を出力推定部23に出力する。
出力推定部23は、出力の推定器dec(x)を用いて、入力(x)から出力(y)を推定する処理部である。例えば、出力推定部23は、訓練部21によって学習した推定器dec(x)に入力推定部22から入力された(x)を適用して、出力(y)を推定する。そして、出力推定部23は、推定した出力(y)を代用データ生成部24に出力する。
代用データ生成部24は、実際の推定対象(y)の代わりに、誤差(適用誤差)が小さいと見積もられる範囲に存在する代用データ(y´)を生成して、入力推定部22に入力する処理部である。また、代用データ生成部24は、実際の推定対象(y)と代用データ(y´)との差である代用誤差と、(y´)と(y´)から再構成された(y´´)との差である再構成誤差の総和(合計誤差)が最小になるような(y´)を最適化によって求める処理部である。
[シミュレーション処理]
ここで、実施例1にかかるシミュレーションについて説明する。図6は、シミュレーションを説明する図である。図6の左図に示すように、代用データ生成部24は、推定対象である(y)との誤差である代用誤差が小さい代用データ(y´)を見積もり、入力推定部22に入力する。入力推定部22は、入力された代用データ(y´)を学習済みの推定器enc(y)に適用して、入力(x)を推定する。さらに、出力推定部23は、推定された入力(x)を学習済みの推定器dec(x)に適用して、出力(y´´)を推定する。
そして、代用データ生成部24は、代用データ(y´)と推定器dec(x)によって推定された再構成データ(y´´=dec(enc(y´)))との差である再構成誤差を算出する。続いて、代用データ生成部24は、代用誤差と再構成誤差との合計である合計誤差を算出する。その後、代用データ生成部24は、合計誤差が収束しない場合は、合計誤差が小さくなる新たな代用データ(y´)が算出して、再度、推定器enc(y)および推定器dec(x)による推定を繰り返す。そして、代用データ生成部24は、合計誤差が収束した場合は、その時の(x)を推定結果として出力する。
なお、実施例1にかかるシミュレーション装置10は、入力(x)の誤差の最小化を目指すのではなく、推定したenc(y)をシミュレータに適用した結果s(enc(y))の誤差(合計誤差はその見積もり)の最小化を目指するので、推定対象であるyを変更してもよい。
ここで、各データと誤差との関係を説明する。図6の右図に示すように、予測対象であるデータ(y)は訓練データから離れた位置のデータである。そこで、予測対象(y)よりも訓練データに近い代用データ(y´)を用いて、dec(x)を推定し、dec(x)を用いて再構成データ(y´´=dec(enc(y´)))を推定する。ここで、予測対象(y)と代用データ(y´)との距離(例えばユークリッド距離)が代用誤差であり、と代用データ(y´)と再構成データ(y´´)との距離が再構成誤差である。
[再構成誤差の算出]
次に、再構成誤差の算出手法について説明する。図7は、再構成誤差の算出を説明する図である。図7に示すように、入力推定部22は、テストデータの出力(y1,y2)に入力の推定器enc(y)を適用して、入力(x)を推定する。例えば、入力推定部22は、学習結果「x=−0.00732*y1+1.1763*y2−0.1249」を用いて、入力(x=3.257)を算出する。
続いて、出力推定部23は、推定器dec(x)に入力(x)を適用して、出力(y1,y2)を推定する。例えば、出力推定部23は、学習結果「y1=1.9171*x+0,3238,y2=0.9686*x+0.1286」を用いて、出力(y1=6.569,y2=3.284)を算出する。
そして、代用データ生成部24は、テストデータの出力(y1,y2)と、推定結果(y1=6.569,y2=3.284)とのユークリッド距離である4.578を、再構成誤差(L2)として算出する。そして、代用データ生成部24は、この再構成誤差(L2)が閾値以下となるまで、代用データを生成して、各推定器による推定処理を実行させる。
[代用データの生成]
続いて、代用データの生成について説明する。図8は、代用データの生成を説明する図である。図8に示すひし形は訓練データを示し、網掛けの四角はテストデータ(初期値)を示し、白い四角は代用データを示し、三角は再構成データを示す。代用データ生成部24は、代用誤差と再構成誤差とを加算した合計誤差が小さくなるように、テストデータ(初期値)から値(代用データ)を変更して、シミュレーション(推定処理)を実行させる。
ここで、代用データ生成部24は、実際の推定対象(y)と代用データ(y´)の差(代用誤差)と、代用データ(y´)と代用データ(y´)から再構成された再構成データ(y´´)の差(再構成誤差)の総和(合計誤差)が最小になるような(y´)を最適化によって求める。
例えば、代用データ生成部24は、訓練データの総数が閾値以下で少なく、代用誤差の推定精度が不十分と考えられる場合は、合計誤差の計算に再構成誤差の重みを小さくした重み付き和を用いることもできる。より詳細には、代用データ生成部24は、推定誤差+0.8*再合成誤差=合計誤差のように、再構成誤差の重みを小さくして、合計誤差を算出することもできる。
また、代用データ生成部24は、推定器encや推定器decがニューラルネットワーク等の微分可能な関数として構成されている場合、代用データ(y´)に対する合計誤差の勾配を使って(y´)を最適化することもできる。より詳細には、合計誤差をL=f(y)とすると、encおよびdecがニューラルネットワーク等の微分可能な関数として構成されている場合、fは微分可能となる。この場合、あるyに対して、Lを小さくするためにyに加える微小な値(一般にはベクトル)を求めることができる。この性質を利用して適当なyから開始して、yに対する合計誤差Lの勾配を求め勾配を下る方向にyを順次移動させることで、Lの小さいyを効率よく求めることができる。このような勾配を使う方法(勾配法)としては再急降下法の更新式などを用いることができるが、他の様々な手法の更新式を用いることができる。
[具体例]
次に、シミュレーションの具体例を説明する。図9は、実施例1にかかるシミュレーションを説明する図である。図9に示すように、まず、入力推定部22は、テストデータの出力y(y1=2.0,y2=3.0)に入力の推定器enc(y)を適用して、入力(x)=3.257を推定し、出力推定部23は、推定器dec(x)に入力(x)を適用して、出力y´´(y1,y2)を推定する。この結果、代用データ生成部24は、出力yと出力y´´との再構成誤差(4.578)と代用誤差(0)を算出し、合計誤差(4.578)を算出する。
ここで、合計誤差(4.578)が閾値(例えば2)以上であることから、代用データ生成部24は、上述した手法を用いて、再構成誤差が小さくなるように、代用データy´(y1=2.0,y2=2.5)を生成する。そして、入力推定部22は、代用データy´(y1=2.0,y2=2.5)に入力の推定器enc(y)を適用して、入力(x)=2.669を推定し、出力推定部23は、推定器dec(x)に入力(x)を適用して、出力y´´(y1,y2)を推定する。この結果、代用データ生成部24は、出力y´と出力y´´との再構成誤差(3.448)と代用誤差(0.500)を算出し、合計誤差(3.948)を算出する。
このようにして、代用データ生成部24は、合計誤差が閾値未満となるまで、代用データを順次生成して、各推定器による推定を繰り返す。そして、代用データy´が(y1=3.0,y2=1.5)のときに、合計誤差が1.849で閾値未満となることから、このときの入力の推定器enc(y1,y2)の推定値「1.420」を推定結果として推定結果DB15に出力する。なお、テストデータは、訓練データから遠いデータであることがわかっている場合は、テストデータを用いた推定を実行せずに、処理開始後にまず代用データを生成して、次に代用データによる推定を開始することもできる。
[処理の流れ]
図10は、処理の流れを示すフローチャートである。図10に示すように、訓練部21は、訓練データを用いて入力の推定器encを学習し(S101)、訓練データを用いて出力の推定器decを学習する(S102)。
その後、代用データ生成部24は、テストデータyから代用データy´生成する(S103)。そして、入力推定部22は、入力の推定器enc(y)を用いて、代用データy´に対する入力xを推定し(S104)、出力推定器23は、出力の推定器dec(x)を用いて、入力xに対するy´´を推定する(S105)。
その後、代用データ生成部24は、yとy´の差である代用誤差を計算し(S106)、y´とy´´の差である再構成誤差を計算する(S107)。そして、代用データ生成部24は、代用誤差と再構成誤差との総和Lを算出し(S108)、Lが収束しない場合(S109:No)、Lが小さくなる方向に代用データy´を修正して(S110)、S104以降を実行させる。
一方で、代用データ生成部24は、Lが収束した場合(S109:Yes)、そのときのxを出力する(S111)。
[効果]
上述したように、シミュレーション装置10は、推定器を利用して結果値よりパラメータ値を推定する推定方法において、結果値の近傍の値を用いることができる場合に、推定精度の高い近傍の値を用いて、パラメータ値を推定することができる。すなわち、シミュレーション装置10は、入力から出力を推定する学習を出力から入力を推定する学習と併用することで、精度よく推定可能な出力の範囲を見積もることができ、外れ値に対する推定がロバストになり、推定精度を向上することができる。
図11は、推定値の比較を説明する図である。図11に示すように、シミュレーション装置10は、訓練データから離れたテストデータに対して、単純に入力の推定値を使用する場合より、ブラックボックス関数に適用したときにテストデータに近い値を出力する。つまり、テストデータ(y1=2.0、y2=3.0)を用いた推定結果の合計誤差からノイズを除いた適用誤差が4.522となる。その一方で、テストデータから順次生成される代用データを用いた推定結果の場合、最終的には適用誤差を1.789まで小さくすることができ、一般的な手法と比較して精度が向上する。
つまり、過去のシミュレーション結果に含まれる洪水などの極端な状況を発生させるパラメータ推定を行う場合、一般的な手法のように、極端な状況をそのまま推定したとしても、推定精度が低下するが、洪水に近い状況を発生させる入力(例えば雨量)を推定することで、推定精度の低下を抑制できる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施例を説明する。
[推定器の学習]
例えば、シミュレーション装置10は、AutoEncoder方式を用いて、学習時に、訓練データに対する再構成誤差が小さくなるように、推定器encおよび推定器decを学習することもできる。図12は、推定器の学習の別例を説明する図である。AutoEncoder方式では訓練データとして、(1)入力xに対する出力yの組、(2)入力が不明な出力y(オプション)の2つを使用できる。
そこで、図12に示すように、シミュレーション装置10は、3つの学習を実行することができる。例えば、図12の(a)に示すように、シミュレーション装置10は、(1)のデータを使用して、出力yに対する入力の推定値x´=enc(y)とxの誤差が小さくなるように、推定器encを学習する。また、図12の(b)に示すように、シミュレーション装置10は、(1)のデータを使用して、入力xに対する出力の推定値y´=dec(x)とyの誤差が小さくなるように、推定器decを学習する。
また、シミュレーション装置10は、図12の(c)に示すように、(1)のyと(2)のデータを使用して、出力yに対する入力の推定値x´=enc(y)に対する出力の推定値y´=dec(x´)=dec(enc(y))とyの誤差が小さくなるように、推定器encと推定器decを学習する。このようにすることで、シミュレーション装置10は、推定精度をより向上させることができる。
[代用データの生成]
例えば、シミュレーション装置10は、上述した手法以外の様々な手法を用いて、代用データの生成を行うことができる。例えば、シミュレーション装置10は、訓練データの集合を近似値や平均値などを用いて直線で表し、テストデータがその直線に近づくように、代用データの生成を行うことができる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア構成]
図13は、ハードウェア構成例を示す図である。図13に示すように、シミュレーション装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。
通信インタフェース10aは、他の装置の通信を制御するネットワークインタフェースカードなどである。HDD10bは、プログラムやデータなどを記憶する記憶装置の一例である。
メモリ10cの一例としては、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。プロセッサ10dの一例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)等が挙げられる。
また、シミュレーション装置10は、プログラムを読み出して実行することで推定方法を実行する情報処理装置として動作する。つまり、シミュレーション装置10は、訓練部21と入力推定部22と出力推定部23と代用データ生成部24と同様の機能を実行するプログラムを実行する。この結果、シミュレーション装置10は、訓練部21と入力推定部22と出力推定部23と代用データ生成部24と同様の機能を実行するプロセスを実行することができる。なお、この他の実施例でいうプログラムは、シミュレーション装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
10 シミュレーション装置
11 通信部
12 記憶部
13 訓練データDB
14 テストデータDB
15 推定結果DB
20 制御部
21 訓練部
22 入力推定部
23 出力推定部
24 代用データ生成部

Claims (6)

  1. 過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定プログラムであって、
    特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出し、
    前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索し、
    前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する、
    処理をコンピュータに実行させることを特徴とする推定プログラム。
  2. 前記探索する処理は、前記過去のデータの総数が閾値以下である場合、前記和を算出する際に、前記再構成誤差の重みを前記代用誤差よりも小さくして算出することを特徴とする請求項1に記載の推定プログラム。
  3. 前記探索する処理は、前記第1の推定器および前記第2の推定器がニューラルネットワークを用いた推定器である場合、前記代用誤差と前記再構成誤差との和である合計誤差の勾配が小さくなる方向に前記特定の結果値を変化させることにより、前記特定の結果値の近傍にある近傍結果値を探索することを特徴とする請求項1に記載の推定プログラム。
  4. 前記近傍結果値は前記合計誤差が最小になる、前記特定の結果値と異なる値であることを特徴とする請求項3に記載の推定プログラム。
  5. 過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定方法であって、
    特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出し、
    前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索し、
    前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する、
    処理をコンピュータが実行することを特徴とする推定方法。
  6. 過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定装置であって、
    特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出する算出部と、
    前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索する探索部と、
    前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する出力部と
    有することを特徴とする推定装置。
JP2017097669A 2017-05-16 2017-05-16 推定プログラム、推定方法および推定装置 Active JP6760200B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017097669A JP6760200B2 (ja) 2017-05-16 2017-05-16 推定プログラム、推定方法および推定装置
CN201880028353.9A CN110637309A (zh) 2017-05-16 2018-04-20 推断程序、推断方法以及推断装置
PCT/JP2018/016379 WO2018211914A1 (ja) 2017-05-16 2018-04-20 推定プログラム、推定方法および推定装置
US16/653,236 US20200042876A1 (en) 2017-05-16 2019-10-15 Computer-readable recording medium recording estimation program, estimation method, and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017097669A JP6760200B2 (ja) 2017-05-16 2017-05-16 推定プログラム、推定方法および推定装置

Publications (2)

Publication Number Publication Date
JP2018195029A JP2018195029A (ja) 2018-12-06
JP6760200B2 true JP6760200B2 (ja) 2020-09-23

Family

ID=64273649

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017097669A Active JP6760200B2 (ja) 2017-05-16 2017-05-16 推定プログラム、推定方法および推定装置

Country Status (4)

Country Link
US (1) US20200042876A1 (ja)
JP (1) JP6760200B2 (ja)
CN (1) CN110637309A (ja)
WO (1) WO2018211914A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351814B2 (ja) * 2020-08-17 2023-09-27 トヨタ自動車株式会社 車両応答予測装置、学習装置、方法、及びプログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19616103A1 (de) * 1996-04-23 1997-10-30 Philips Patentverwaltung Verfahren zum Ableiten charakteristischer Werte aus einem Sprachsignal
JP2004094437A (ja) * 2002-08-30 2004-03-25 Fuji Electric Holdings Co Ltd データ予測方法及びデータ予測システム
JP4169063B2 (ja) * 2006-04-06 2008-10-22 ソニー株式会社 データ処理装置、データ処理方法、及びプログラム
JP2008293259A (ja) * 2007-05-24 2008-12-04 Sony Corp データ処理装置、データ処理方法、及びプログラム
US8572593B2 (en) * 2007-07-30 2013-10-29 Oracle International Corporation Simplifying determination of whether application specific parameters are setup for optimal performance of associated applications
JP5494034B2 (ja) * 2010-03-10 2014-05-14 富士電機株式会社 信頼度評価装置、信頼度評価プログラムおよび信頼度評価方法
US20160004800A1 (en) * 2013-05-24 2016-01-07 Halliburton Energy Services, Inc. Methods and systems for reservoir history matching for improved estimation of reservoir performance
US9524465B2 (en) * 2014-08-05 2016-12-20 E.S.I. Software Ltd System and method for analyzing and prioritizing changes and differences to configuration parameters in information technology systems

Also Published As

Publication number Publication date
JP2018195029A (ja) 2018-12-06
WO2018211914A1 (ja) 2018-11-22
US20200042876A1 (en) 2020-02-06
CN110637309A (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
Sjöberg et al. Initializing Wiener–Hammerstein models based on partitioning of the best linear approximation
Wang et al. Recursive least squares estimation algorithm applied to a class of linear-in-parameters output error moving average systems
US11620530B2 (en) Learning method, and learning apparatus, and recording medium
Ayala Solares et al. Nonlinear model structure detection and parameter estimation using a novel bagging method based on distance correlation metric
JP6760200B2 (ja) 推定プログラム、推定方法および推定装置
Yazid et al. Improving the modeling capacity of Volterra model using evolutionary computing methods based on Kalman Smoother adaptive filter
Mu et al. Bayesian variable selection for the Cox regression model with spatially varying coefficients with applications to Louisiana respiratory cancer data
Anastasiou et al. Generalized multiple change-point detection in the structure of multivariate, possibly high-dimensional, data sequences
KR102363636B1 (ko) 통계적 불확실성 모델링을 활용한 음성 인식 방법 및 장치
Abu-Zinadah Bayesian estimation on the exponentiated Gompertz distribution under type II censoring
Eisenhauer The approximate solution of finite‐horizon discrete‐choice dynamic programming models
JP7192873B2 (ja) 情報処理プログラム、情報処理方法および学習装置
Vanck et al. Using hyperbolic cross approximation to measure and compensate covariate shift
Wheeler et al. Likelihood Based Inference for ARMA Models
JP6172316B2 (ja) 混合モデリングのための初期化方法及び初期化システム
JP7464891B2 (ja) トラフィック変動予測装置、及びトラフィック変動予測方法、並びにトラフィック変動予測プログラム
Heinz et al. Efficient pole optimization of nonlinear laguerre filter models
US20220076162A1 (en) Storage medium, data presentation method, and information processing device
US11562233B2 (en) Learning method, non-transitory computer readable recording medium, and learning device
WO2021111832A1 (ja) 情報処理方法、情報処理システム及び情報処理装置
Alneamy et al. Proposed binding between genetic algorithm and grey wolf optimizer to estimate the parameters of software reliability growth models
Wijewardhana et al. Streaming signal recovery using sparse bayesian learning
WO2020158032A1 (ja) 推定装置、学習装置、それらの方法、およびプログラム
Drake et al. EM-based inference for cyclostationary time series with missing observations
Boccato et al. Improving the efficiency of natural computing algorithms in DOA estimation using a noise filtering approach

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200625

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200804

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200817

R150 Certificate of patent or registration of utility model

Ref document number: 6760200

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150