JP7131393B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7131393B2
JP7131393B2 JP2018566079A JP2018566079A JP7131393B2 JP 7131393 B2 JP7131393 B2 JP 7131393B2 JP 2018566079 A JP2018566079 A JP 2018566079A JP 2018566079 A JP2018566079 A JP 2018566079A JP 7131393 B2 JP7131393 B2 JP 7131393B2
Authority
JP
Japan
Prior art keywords
simulation
variables
estimation model
output
variable
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018566079A
Other languages
English (en)
Other versions
JPWO2018143019A1 (ja
Inventor
義男 亀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2018143019A1 publication Critical patent/JPWO2018143019A1/ja
Application granted granted Critical
Publication of JP7131393B2 publication Critical patent/JP7131393B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16ZINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS, NOT OTHERWISE PROVIDED FOR
    • G16Z99/00Subject matter not provided for in other main groups of this subclass

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Description

本開示は、情報処理装置、情報処理方法およびプログラム記録媒体に関する。
物理的あるいは抽象的なシステムをモデルで表現し、そのモデルを使って実験を行うシミュレーションが行われている。例えば、物体に力を加えたときの変形量(構造解析)、物体の一部に熱を加えたときの熱の伝搬(熱伝導解析)、物体に風や水を当てたときの風や水の動き(流体解析)などを、数学的モデルを用いてシミュレーション装置により模擬することが行われている。
特許文献1には、シミュレーションの方法およびその装置が開示されている。この方法および装置では、シミュレータの入力条件を変化させてシミュレーションを行った結果をニューラルネットワークに学習させておき、新たな入力条件に対するシミュレーション結果を、ニューラルネットワークを用いて予測する。その結果、新たな入力条件でのシミュレーション結果を迅速に取得している。
また、特許文献2には、複数の入力パラメータを含む入力データを入力して出力データを出力するシステムを解析する解析装置が開示されている。この装置では、入力データおよび出力データの複数の組の学習データに基づいて、2つの入力データにおける各入力パラメータの差分に応じた出力データの相違量を学習し、入力パラメータの変化量に応じて出力データの変化量を予測する。その結果、システムの出力データを得るための時間や処理量を削減している。
特許文献3には、移動手段を高精度に推定可能な移動手段推定モデルを生成する移動手段推定モデル生成装置が開示されている。
特許文献4には、エージェントベースのシミュレーションにおける複数のシナリオのうち、良好な結果が得られる条件をより少ない計算量で特定する情報処理装置が開示されている。
特許文献5には、処理量及び処理に要するメモリ容量を抑えつつ、パターン識別に適切なパラメータを設定する情報処理装置が開示されている。
特許文献6には、個別の構成員モデル結果データの積み重ね、全体の状況、変化を把握し、企業・組織診断と意思決定の迅速化を可能としたシミュレーションシステムが開示されている。
特開平3-265064号公報 特開2016-006587号公報 特開2016-081272号公報 特開2016-071383号公報 特開2015-087940号公報 特開2009-295017号公報
一般に、シミュレーション装置は、入力変数を用いて内部変数を更新しながら出力変数を生成するが、高精度な出力変数を得るためには長い時間シミュレーションを実行する必要があるという課題がある。
上述した特許文献1および特許文献2に開示されている技術では、シミュレーションの時間を削減することはできるが、出力の推定精度が低下してしまう。
特許文献3乃至6には、上記課題を解決する技術は開示されていない。
本願発明は、上記課題を鑑みてなされたものであり、特許文献1または特許文献2が開示する技術と比較して、シミュレーションの出力を、高い精度または短い時間で得ることができる推定モデルを生成する情報処理装置等を提供することを主要な目的とする。
本発明の一形態の情報処理装置は、シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された内部変数の更新値と、該シミュレーションの結果を示す出力変数の値とを取得する取得手段と、前記取得手段により取得された前記入力変数と、前記更新された内部変数を説明変数とし、また前記取得手段により取得された前記出力変数を目的変数として、シミュレーションの結果を推定するための推定モデルを学習する学習手段とを備える。
本発明の一形態の情報処理方法は、シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された内部変数の更新値と、該シミュレーションの結果を示す出力変数の値とを取得し、前記取得された前記入力変数と、前記更新された内部変数を説明変数とし、また前記取得された前記出力変数を目的変数として、シミュレーションの結果を推定するための推定モデルを学習する。
本発明の一形態のプログラム記録媒体は、シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された内部変数の更新値と、該シミュレーションの結果を示す出力変数の値とを取得する処理と、
前記取得された前記入力変数と、前記更新された内部変数を説明変数とし、また前記取得された前記出力変数を目的変数として、シミュレーションの結果を推定するための推定モデルを学習する処理とを、コンピュータに実行させるプログラムを記録する。
本願発明によれば、特許文献1または特許文献2が開示する技術と比較して、シミュレーションの出力を、高い精度または短い時間で得ることができるという効果が得られる。
本発明の第1の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第2の実施形態に係る情報処理装置の第1の入力変数記憶部に予め記憶されている入力変数の一例を示す図である。 本発明の第2の実施形態に係る情報処理装置における出力推定モデル生成フェーズの処理を示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置のシミュレーション部によるシミュレーション実行の途中経過の一例について説明する図である。 本発明の第2の実施形態に係る情報処理装置のシミュレーション結果記憶部に格納された入力変数、内部変数の更新値およびシミュレーション結果の一例を示す図である。 本発明の第2の実施形態に係る情報処理装置の出力推定モデル生成部による出力推定モデル生成処理を示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置の出力推定モデル生成部が生成した出力推定モデルの一例を示す図である。 本発明の第2の実施形態に係る情報処理装置による出力変数の推定フェーズの処理を示すフローチャートである。 本発明の第2の実施形態に係る情報処理装置のシミュレーション結果記憶部に格納されたデータの一例を示す図である。 本発明の第2の実施形態に係る情報処理装置の推定部により推定結果記憶部に格納された推定結果の一例を示す図である。 本発明の第3の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第3の実施形態に係る情報処理装置によるシミュレーション結果と、出力推定モデルによる出力変数の推定値との関係の一例を示す図である。 本発明の第3の実施形態に係る情報処理装置の誤差推定モデル生成部により誤差推定モデルを生成する処理を示すフローチャートである。 本発明の第3の実施形態に係る情報処理装置の誤差推定モデル生成部により計算された誤差を含む誤差データを示す図である。 本発明の第3の実施形態に係る情報処理装置の出力推定モデル生成部により生成された出力推定モデルと、誤差推定モデル生成部により誤差推定モデルの一例を示す図である。 本発明の第4の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第4の実施形態に係る情報処理装置の精度判定部の処理を示すフローチャートである。 本発明の第4の実施形態に係る情報処理装置による出力推定モデルのステップ数と、そのモデルによる出力変数の推定値の誤差の平均値との関係の一例を示す図である。 本発明の第5の実施形態に係る情報処理装置の構成を示すブロック図である。 本発明の第5の実施形態に係る情報処理装置の再学習判定部の処理を示すフローチャートである。 本発明の第5の実施形態に係る情報処理装置の追加シミュレーション結果記憶部に格納された入力変数、内部変数の更新値およびシミュレーション結果の一例を示す図である。 本発明の第5の実施形態に係る情報処理装置の再学習判定部により計算された推定結果の一例を示す図である。 本発明の第5の実施形態に係る情報処理装置の再学習判定部による再学習判定処理を説明するフローチャートである。 各実施形態に示した装置を実現するハードウエア構成の一例を示す図である。
以下、本発明の実施形態について図面を参照して詳細に説明する。
第1の実施形態
図1は、本発明の第1の実施形態に係る情報処理装置100の構成を示すブロック図である。図1に示すように、情報処理装置100は、取得部110および学習部120を備える。
取得部110は、シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された内部変数の更新値と、該シミュレーションの結果を示す出力変数の値とを取得する。学習部120は、取得部110により取得された入力変数と、更新された内部変数を説明変数とし、また取得手段により取得された出力変数を目的変数として、シミュレーションの結果を推定するための推定モデルを学習する。なお、学習部120は、一例として、以降の実施形態において説明する出力推定モデル生成部241により実現される。
上記構成を採用することにより、本第1の実施形態によれば、入力変数だけでなく内部変数を説明変数として用いた推定モデルを生成し、その推定モデルを用いてシミュレーションの結果を推定するので、特許文献1または特許文献2が開示する技術と比較して、シミュレーションの出力を、高い精度または短い時間で得ることができるという効果が得られる。
第2の実施形態
図2は、本発明の第2の実施形態に係る情報処理装置200の構成を示すブロック図である。図2に示すように、情報処理装置200は、シミュレーション部210、第1の入力変数記憶部220、シミュレーション結果記憶部230、学習部240、推定モデル記憶部250、推定部260、第2の入力変数記憶部270および推定結果記憶部280を備える。情報処理装置200は、シミュレーションを実行すると共に、そのシミュレーションの結果に基づいて、シミュレーションの結果を推定するための出力推定モデルを生成する装置である。
シミュレーション部210は、シミュレーションを実行する機能を有する。具体的には、シミュレーション部210は、所定のシミュレーション実行モデルを含み、そのモデルと、第1の入力変数記憶部220に記憶されているシミュレーション実行用の入力変数の値とを用いて、内部変数の値を更新しながら、シミュレーションを実行し、出力変数の値を出力する。
第1の入力変数記憶部220には、シミュレーション実行モデルに入力される入力変数の値が、シミュレーションの実行前に予め記憶されている。
図3は、第1の入力変数記憶部220に予め記憶されている入力変数の値の一例を示す図である。第1の入力変数記憶部220には、シミュレーションID(IDentification)ごとの入力変数の値が記憶されている。シミュレーションIDは、シミュレーション実行の単位ごとに付与された識別子である。ここでは、シミュレーションIDごとに、例えば2つの入力変数U_1,U_2が記憶されていることを示す。
なお、シミュレーション部210および第1の入力変数記憶部220は、情報処理装置200に含まれていなくてもよい。この場合、情報処理装置200は、シミュレーション実行用の入力変数の値を用いて実行されたシミュレーションの、入力変数の値と、その実行において更新された内部変数の値とを取得する取得手段と備えていればよい。また、以下の説明におけるシミュレーション部210によるシミュレーションの実行は、外部で行われ、その結果を情報処理装置200が取得するように構成されてもよい。
シミュレーション結果記憶部230には、シミュレーション部210に入力されたシミュレーション実行用の入力変数の値、シミュレーション実行により生成された内部変数の更新値、およびシミュレーション結果(出力変数の値)が記憶される。このシミュレーション実行用の入力変数、内部変数の更新値およびシミュレーション結果が、後述する出力推定モデル生成のための学習用データとなる。
学習部240は、出力推定モデル生成部241が含まれる。出力推定モデル生成部241は、シミュレーション結果記憶部230に記憶された学習用データを取得する取得部(図示しない)を兼ね、取得した学習データを学習することにより、シミュレーションの収束後の出力変数の値(以降、「収束値」とも称する)を推定する出力推定モデルを生成する。推定モデル記憶部250には、出力推定モデル生成部241により生成された出力推定モデルが格納される。
ここで、シミュレーション部210は、物理的あるいは抽象的なシステムを表現した数学的モデルなどのシミュレーション実行モデルを予め保持する。このシミュレーション実行モデルは、シミュレーション実行において、入力された入力変数の値を用いて、内部変数を更新しながら、出力変数の値が収束したと判断されるまでステップ(処理)の実行を繰り返す。なお、情報処理装置200は、このようなシミュレーションの実行に用いられた入力変数と、その実行において更新された内部変数の値を取得してもよい。
推定部260は、推定モデル記憶部250に格納された出力推定モデルと、第2の入力変数記憶部270に記憶されている入力変数の新たな値とを用いて、収束後のシミュレーションの出力変数の値を推定する機能を有する。
第2の入力変数記憶部270には、シミュレーション実行用の入力変数の新たな値(以降、「推定用の入力変数」とも称する)が記憶される。推定部260は、この推定用の入力変数の値と出力推定モデルとを用いて、収束後のシミュレーションの出力変数の値を推定する。なお、推定用の入力変数は、第2の入力変数記憶部270に記憶されていることに限定されず、外部から与えられてもよい。
推定結果記憶部280には、推定部260により、出力推定モデルを用いて推定された、収束後のシミュレーションの出力変数の値が格納される。出力推定モデルを用いて推定された、収束後のシミュレーションの出力変数の値を、「推定値」とも称する。
情報処理装置200は、上述した学習用データを学習して収束後のシミュレーションの出力変数の値を推定する出力推定モデルを生成する出力推定モデル生成フェーズと、生成された出力推定モデルと推定用の入力変数を用いて出力変数の収束値を推定する推定フェーズを実行する。出力推定モデル生成フェーズは、主に、シミュレーション部210および学習部240により実行され、推定フェーズは、主に、推定部260により実行される。
図4は、情報処理装置200における出力推定モデル生成フェーズの処理を示すフローチャートである。図4を参照して、情報処理装置200の出力推定モデル生成フェーズの処理について説明する。
シミュレーション部210は、第1の入力変数記憶部220から入力変数の値を読み出す(S301)。
シミュレーション部210は、読み出した入力変数の値と、シミュレーション実行モデルとを用いて、内部変数の値を更新し、出力変数の値を生成するステップを繰り返し実行する(S302)。
図5は、シミュレーション部210によるシミュレーション実行の途中経過の一例について説明する図である。図5では、シミュレーション部210は、ステップ1において、シミュレーション実行モデルに入力変数U_1,U_2(値はU_1_1,U_2_1)を入力する。シミュレーション部210は、内部変数X_1,X_2(値はX_1_1,X_2_1)を用いながらシミュレーション実行モデルを実行し、出力変数Y_1,Y_2(値はY_1_1,Y_2_1)を出力する。
ステップ1の結果、内部変数の値は更新されている。続いてシミュレーション部210は、ステップ2において、ステップ1により更新された内部変数の値X_1_2,X_2_2を用いてシミュレーション実行モデルを実行する。そして、シミュレーション部210は、出力変数の値Y_1_2,Y_2_2を出力する。以降、同様に、シミュレーション部210は、内部変数の値を更新しながら、出力変数の値を出力する。シミュレーション部210は、出力変数の値が収束するまで、ステップを繰り返し実行する。
シミュレーション部210は、シミュレーション実行モデルのステップごとに、ステップ数、内部変数の更新値、出力された出力変数の値を、シミュレーション結果記憶部230に書き込む(S303)。なお、入力変数の値は、例えばシミュレーション実行モデルに入力されたときにシミュレーション結果記憶部230に書き込まれてもよい。
上記ステップの繰り返しの結果、シミュレーション部210は、出力変数の値が収束したと判定したとする(S304においてYes)。なお、シミュレーション部210は、出力変数の値が収束すると考えられるステップ数を既定のステップ数として予め保持しておき、そのステップ数だけステップを繰り返してもよい。
続いて、シミュレーション部210は、学習に十分なデータが得られたか否かを判定する。学習に十分なデータの量は、予め定められていてもよい。
シミュレーション部210は、学習に十分なデータが得られていないと判定した場合、処理をS301に戻す。シミュレーション部210は、第1の入力変数記憶部220から、次のシミュレーションIDに対応する入力変数の値を読み出す。そして、シミュレーション部210は、読み出した入力変数の値を用いて、出力変数が収束するまで、処理S302、S303を行う。シミュレーション部210は、処理S301から処理S304を、学習に十分なデータが得られるまで繰り返す。
図6は、上記シミュレーション実行の結果、シミュレーション結果記憶部230に書き込まれた入力変数の値、内部変数の更新値およびシミュレーション結果の一例を示す図である。図6では、シミュレーションID=1乃至50に示す50回のシミュレーションが実行され、各シミュレーションではそれぞれ収束するまでステップが繰り返し実行されたことを示す。例えば、シミュレーションID=1に示すシミュレーションの出力変数の収束値はY1_1_99,Y1_2_99、シミュレーションID=2に示すシミュレーションの出力変数の収束値はY2_1_87,Y2_2_87である。
図6に示すように、シミュレーションIDごとに、ステップごとの内部変数の更新値および出力変数の値が生成される。図6では、2つの入力変数U_1,U_2の各値が入力され、ステップごとに2つの内部変数X_1,X_2の各値と、2つの出力変数Y_1,Y_2の各値が生成されたことを示す。
シミュレーション部210は、学習に十分なデータが得られたと判断したとする(S305においてYes)。続いて、シミュレーション部210は、学習部240に対して、出力推定モデル生成処理の実行を指示する。
学習部240は、上記指示に応じて、出力推定モデル生成部241において出力推定モデル生成処理を行う(S306)。具体的には、出力推定モデル生成部241は、シミュレーション結果記憶部230に格納された、入力変数の値、内部変数の更新値およびシミュレーション結果を学習することにより、出力推定モデルを生成する。
図7は、出力推定モデル生成部241による出力推定モデル生成処理を示すフローチャートである。図7を参照して、出力推定モデル生成部241による出力推定モデル生成処理について説明する。
出力推定モデル生成部241は、まず、いずれのステップt(tはステップ数を示す)に関する出力推定モデルを生成するかを決定する(S401)。ここで、「ステップtに関する出力推定モデル」とは、その出力推定モデルを用いた後述する推定処理において、ある入力変数を用いてステップtまでステップを繰り返し実行したときに得られた、いずれか一以上のステップにおいてそれぞれ更新された内部変数と、その入力変数を、説明変数として用いて学習されるモデルである。例えば、ステップt=「10」に関する出力推定モデルは、推定処理において、シミュレーション部210がステップt=「10」までステップを繰り返し実行したときに得られた、いずれか一以上のステップにおいてそれぞれ更新された内部変数と、入力変数を、説明変数として用いて学習されるモデルである。
ここで、出力推定モデルを生成するステップtは、その数が少ない方が好ましい。すなわち、ステップt=「50」に関する出力推定モデルよりも、ステップt=「30」に関する出力推定モデルを生成する方が好ましい。
これは、出力推定モデルを生成したステップまで、推定部260による出力変数の収束値の推定処理において、シミュレーション部210によるシミュレーションを実行する必要があるためである(詳細は後述する)。したがって、より短時間で推定処理を行うためには、数の少ないステップに関する出力推定モデルを生成することが好ましい。なお、出力推定モデル生成部241は、出力推定モデルを生成するステップの数を、予め保持していてもよい。
出力推定モデル生成部241は、例えば、ステップt=「10」に関する出力推定モデルを生成すると決定したとする。
次に、出力推定モデル生成部241は、出力推定モデル生成において、出力推定モデルの説明変数にいずれのステップの内部変数を用いるかを選択する(S402)。ここで選択されるのは、S401において決定したステップより少ない数のステップの内部変数となる。
出力推定モデル生成部241は、例えば以下のように、選択してもよい。すなわち、出力推定モデル生成部241は、ステップt=「10」に関する出力推定モデルの説明変数に、各シミュレーションにおけるステップt=「9」の内部変数を用いてもよい。あるいは、出力推定モデル生成部241は、各シミュレーションにおけるステップt=「1」乃至「9」のそれぞれの内部変数を説明変数に用いてもよい。あるいは、出力推定モデル生成部241は、各シミュレーションにおけるステップt=「1」,「3」,「5」,「7」,「9」のそれぞれの内部変数を説明変数に用いてもよい。説明変数には、少なくとも一のステップにおいて更新された内部変数が用いられればよく、二以上のステップにおいてそれぞれ更新された内部変数が用いられてもよい。
さらに、出力推定モデル生成部241は、特徴量選択(feature selection)機能を備え、その機能によって選択されたステップの内部変数を、説明変数に用いてもよい。特徴量選択機能には、入力変数および各ステップにおいて更新された内部変数(X_1(t=1),X_1(t=2),…,X_1(t=N),X_2(t=1),X_2(t=2),…,X_2(t=N))が説明変数の候補として入力される。ここで、Nは、シミュレーションが収束したと判断されたときのステップ数、X_1(t=1)は、ステップt=「1」における内部変数X_1をそれぞれ示す。
特徴量選択機能は、入力された候補のうちから好ましい変数を説明変数として選択する。この場合、出力推定モデル生成部241は、例えば、複数の変数の間で相関が強いものがある場合は、それら複数の変数のうちのいくつかを除外するなどしてもよい。また、出力推定モデル生成部241は、小さいステップ数において更新された内部変数を、大きいステップ数において更新された内部変数よりも優先して説明変数として選択してもよい。その理由は、大きいステップ数において更新された内部変数を説明変数として用いないことにより、後述する「短時間にシミュレーションの出力を得ることができるという効果」がより顕著となるためである。このような特徴量選択機能は任意の方法により実現される。例えば、説明変数の良さを評価する基準において、目的変数との相関の高さや他の変数との冗長性の低さを表す項に加えて、ステップ数の大きさに対するペナルティを表現する項が含まれていてもよい。出力推定モデル生成部241は、どの変数を説明変数として用いるかの明示的な指定をオペレータから受け付けても良い。
続いて、出力推定モデル生成部241は、シミュレーション結果記憶部230から、S402において選択された内部変数の値とステップの数と、各内部変数に対応する入力変数の値と、その入力変数の値を用いて実行されたシミュレーションの出力変数の収束値を、それぞれ読み出す(S403)。
図6に示す例では、出力推定モデル生成部241は、S402において例えば各シミュレーションにおけるステップt=「9」の内部変数を選択している場合、まず、シミュレーションID=「1」に関する、入力変数の値U_1_1,U_2_1、内部変数の値X1_1_9,X1_2_9、および出力変数の収束値Y1_1_99,Y1_2_99を読み出す。続いて、出力推定モデル生成部241は、シミュレーションID=「2」に関する、入力変数U_1_2,U_2_2、内部変数の値X2_1_9,X2_2_9、および出力変数の収束値Y2_1_87,Y2_2_87を読み出す。続いて、出力推定モデル生成部241は、シミュレーションID=「3」に関する、入力変数U_1_3,U_2_3、内部変数の値X3_1_9,X3_2_9、および出力変数の収束値Y3_1_102,Y3_2_102を読み出す。出力推定モデル生成部241は、シミュレーションID=「4」以降の値についても、同様に読み出す。
出力推定モデル生成部241は、読み出した入力変数の値、内部変数の更新値および出力変数の収束値を学習して、出力推定モデルを生成する(S404)。出力推定モデル生成部241は、入力変数と、更新された内部変数とを説明変数とし、値が収束した出力変数を目的変数として用いて学習する。学習には、既存の線形回帰分析などの回帰分析手法を用いてもよいし、その他任意の分析手法を用いてもよい。出力推定モデル生成部241は、以上の手順により、図7に示した出力推定モデル生成処理を終了する。
図8は、出力推定モデル生成部241が生成した出力推定モデルの一例を示す図である。この出力推定モデルにより、シミュレーションの出力変数の収束値の推定値(以降、「出力変数の推定値」または「推定値」とも称する)が求められる。図8の例は、ステップt=「10」に関する出力推定モデルである。
具体的には、出力変数の推定値Y_1est,Y_2estを求める出力推定モデルとして、それぞれ式(2),(3)が、生成されたことが示される。
推定値Y_1est
=U_1-3*U_2+X_1(t=10)-2*X_2(t=10)・・・式(2)
推定値Y_2est
=-U_1-U_2+2*X_1(t=10)-X_2(t=10)・・・式(3)
出力推定モデル生成部241は、以上の手順により、出力推定モデルを生成し、生成した出力推定モデルを推定モデル記憶部250に格納する(図4のS307)。
次に、上記のように生成された出力推定モデルを用いて収束値を推定する推定フェーズについて説明する。なお、推定フェーズは、上述した出力推定モデル生成フェーズと必ずしも同じタイミングで実行されなくてよい。すなわち、推定フェーズは、出力推定モデルが生成された以降、任意のタイミングで実行されてもよい。推定フェーズが実行されるタイミングで、第2の入力変数記憶部270に、推定用の入力変数の値が格納されればよい。
図9は、情報処理装置200による出力変数の推定フェーズの処理を示すフローチャートである。図9を参照して、情報処理装置200の推定フェーズの処理について説明する。ここで、推定モデル記憶部250には、出力推定モデル生成部241により生成されたステップt=「10」に関する出力推定モデルが格納されており、第2の入力変数記憶部270には、推定用の入力変数の値が格納されているとする。
推定部260は、推定モデル記憶部250に格納されている出力推定モデルと、第2の入力変数記憶部270に格納されている推定用の入力変数U_1の値U_1_est,U_2_estを読み出す(S501)。
推定部260は、シミュレーション部210に対して、読み出した推定用の入力変数を用いてシミュレーションを実行することを指示する。このとき、推定部260は、実行するステップ数をシミュレーション部210に指定する。ここでは、ステップt=「10」に関する出力推定モデルが用いられるため、推定部260は、ステップt=「10」を指定する。
シミュレーション部210は、受け取った推定用の入力変数の値U_1_est,U_2_estとシミュレーション実行モデルを用いて、シミュレーションを実行する(S502)。シミュレーション部210は、シミュレーション実行モデルのステップごとに、ステップ数、内部変数の更新値、出力変数の値を、シミュレーション結果記憶部230に書き込む(S503)。なお、推定用の入力変数の値は、例えばシミュレーション実行モデルに入力されたときにシミュレーション結果記憶部230に書き込まれてもよい。
図10Aは、シミュレーション結果記憶部230に書き込まれた、シミュレーションID=「200」のシミュレーションに関する入力変数、ステップ数、内部変数の更新値の一例を示す図である。図10Aに示すように、ここではステップt=「10」までステップが繰り返し実行されたことが示される。
シミュレーション部210は、指定されたステップ数を実行すると(S504においてYes)、その旨を推定部260に通知する。推定部260は、上記通知を受け取ると、出力推定モデルに、シミュレーション結果記憶部230に格納された入力変数の値U_1_est,U_2_estと、指定されたステップt(ここではステップt=「10」)の内部変数の値X200_1_10,X200_2_10を入力することにより、出力変数の収束値を推定する(S505)。
推定部260は、上記推定した推定結果を、推定結果記憶部280に格納する(S506)。
図10Bは、推定部260により推定結果記憶部280に格納された推定結果の一例を示す図である。図10Bには、入力変数の値、内部変数の値および、出力推定モデルを用いて算出された出力変数の推定値を示す。図10Bに示す例では、入力変数の値U_1_est,U_2_est、内部変数の値X200_1_10,X200_2_10、および、出力推定モデルを用いて算出された出力変数の推定値Y_1est_last,Y_2est_lastが示される。
推定部260は、図10Bに示すように算出した出力変数の推定値を、表示装置に表示してもよい。
以上の手順により、推定部260は、出力推定モデルにより出力変数の収束値の推定を行う。
以上のように、第2の実施形態によれば、情報処理装置200は、シミュレーション部210に入力した入力変数の値と、シミュレーション実行により得られた内部変数の更新値とシミュレーション結果とを、学習部240の出力推定モデル生成部241により、学習し、出力推定モデルを生成する。推定部260により、その出力推定モデルを用いて、シミュレーションの出力変数の収束値を推定する。
この構成を採用することにより、本第2の実施形態によれば、シミュレーション結果が収束するまでシミュレーションを行う必要はなく、出力推定モデルを用いてシミュレーション結果を推定するので、短時間にシミュレーションの出力を得ることができるという効果が得られる。
また、入力変数だけでなく内部変数を説明変数として用いた出力推定モデルを生成し、その出力推定モデルを用いて推定するので、特許文献1または特許文献2が開示する技術と比較して、高い精度でシミュレーションの出力を得ることができるという効果が得られる。
第3の実施形態
図11は、本発明の第3の実施形態に係る情報処理装置300の構成を示すブロック図である。図11に示すように、第3の実施形態に係る情報処理装置300は、第2の実施形態において説明した情報処理装置200の学習部240に代えて、学習部310を備える。その他の要素については、第2の実施形態において説明した要素と同様であるため、その説明は省略する。
学習部310は、第2の実施形態で説明した出力推定モデル生成部241に加えて、誤差推定モデル生成部311を備える。
誤差推定モデル生成部311は、出力推定モデルを用いて算出された出力変数の推定値の誤差を推定するモデルを生成する。出力推定モデルを用いて算出された推定値の誤差を推定するモデルを、「誤差推定モデル」と称する。本実施形態では、ステップt=「10」に関する出力推定モデルに基づいて、誤差推定モデルを生成することを説明する。
図12は、シミュレーション結果(出力変数の収束値)と、出力推定モデルによる出力変数の推定値との関係を、X-Y平面座標に模式的に示した一例を示す図である。シミュレーション実行モデルおよび出力推定モデルに対する各入力変数の値がX軸上に、シミュレーション実行モデルの各出力変数の収束値および出力推定モデルによる各出力変数の推定値がY軸上に、それぞれ示されている。
例えば、入力変数の値U_1_1を、シミュレーション実行モデルおよび出力推定モデルにそれぞれ入力したときの、シミュレーション結果(出力変数の収束値)Y_1last_1に対する推定値Y_1est_1の差が、誤差である。本第3の実施形態では、この推定値の誤差の推定モデル(誤差推定モデル)を生成することを説明する。
図13は、誤差推定モデル生成部311により誤差推定モデルを生成する処理を示すフローチャートである。図13を参照して、誤差推定モデル生成部311が誤差推定モデルを生成する処理について説明する。
誤差推定モデル生成部311は、シミュレーション結果である出力変数の収束値と、推定結果記憶部280に格納された、出力推定モデルによる出力変数の推定値とに基づいて、誤差推定モデルを生成することを説明する。ここで、出力推定モデルによる出力変数の推定値とは、入力変数の値と、出力推定モデルに用いられているステップの内部変数の値とを出力推定モデルに入力したときに算出される値である。
誤差推定モデル生成部311は、まず、出力推定モデルによる出力変数の推定値の、シミュレーション結果である出力変数の収束値に対する誤差を計算する(S601)。
図14は、誤差推定モデル生成部311により計算された上記誤差を含む誤差データを示す図である。図14は、推定モデル記憶部250に格納される、ステップt=「10」に関する出力推定モデルを用いて算出された出力変数の推定値Y_1estの、シミュレーション結果である出力変数の収束値Y_1lastに対する誤差を含む。
例えば、誤差E_1は、以下の式(4)で示される。
誤差E_1=Y_1last_1-Y_1est_last・・・式(4)
誤差推定モデル生成部311は、上記計算した誤差を含む誤差データを、推定結果記憶部280に格納してもよい。
誤差推定モデル生成部311は、図14に示した誤差データを学習用データとして学習して誤差推定モデルを生成する(S602)。具体的には、誤差推定モデル生成部311は、入力変数の値、内部変数の更新値を示す説明変数と、誤差を示す目的変数とを用いて、学習用データを学習し、誤差推定モデルを生成する。
図15は、出力推定モデル生成部241により生成された出力推定モデルと、誤差推定モデル生成部311により生成された誤差推定モデルの一例を示す図である。出力推定モデルは、図8を参照して第2の実施形態において説明したモデルと同様である。誤差推定モデルは、出力推定モデルと同じく、ステップt=「10」に関する出力推定モデルである。
具体的には、出力変数の推定値Y_1est,Y_2estの誤差を求める誤差推定モデルとして、それぞれ式(5),(6)が、生成されたことが示される。
推定値Y_1estの誤差
=0.2*X_0(t=10)-0.6*X_1(t=10)・・・式(5)
推定値Y_2estの誤差
=-0.1*X_0(t=10)-0.5*X_1(t=10)・・・式(6)
式(5)において、例えば、X_0(t=10)=「9」、X_1(t=10)=「1」とすると、出力変数の推定値Y_1estには、「±0.6」の誤差がありうることを意味する。
誤差推定モデル生成部311は、以上の手順により、誤差推定モデルを生成し、生成した誤差推定モデルを、推定モデル記憶部250に格納する(S603)。
なお、上記のように生成された誤差推定モデルにより求められる誤差の推定値によって、出力変数の推定値の信頼度を検討できる。すなわち、シミュレーション結果は、出力推定モデルによって計算された推定値から、誤差の分だけずれる可能性があるので、それを考慮した推定値の検討が可能となる。
例えば、出力変数Y_1の値が「1」を下回るようなパラメータの設計をする場合、あるパラメータセット「P」の下で、出力推定モデルを用いた出力変数の推定値が「0.7」であり、誤差推定モデルを用いた誤差の推定値が「±0.2」であったとする。
この場合、誤差を考慮した出力変数Y_1の推定値は、「0.5~0.9」となる。よって、誤差があっても出力変数Y_1が「1」を下回ることを期待できる。つまり、このパラメータセット「P」で設計してよいことが分かる。
一方、同じ出力変数の推定値であっても誤差の推定値が「±0.3」である場合、誤差を考慮した出力変数Y_1の推定値は、「0.4~1.0」となる。よって、誤差があると出力変数Y_1の値が「1」を下回らないことが予想される。つまり、このパラメータセット「P」での設計は適切でないことが分かる。
なお、図14に示した誤差の計算は、第2の実施形態において説明した出力変数の推定値の計算と並行して行われてもよい。すなわち、出力推定モデル生成部241は、生成した出力推定モデルによる出力変数の推定値の、シミュレーション結果に対する誤差を計算し、誤差の小さい出力推定モデルを生成するように構成されてもよい。
以上のように、本第3の実施形態によれば、情報処理装置300は、誤差推定モデル生成部311により、出力推定モデルによる出力変数の推定値の、シミュレーション結果に対する誤差を計算し、その誤差と内部変数の更新値を学習することにより、誤差を推定するモデルを生成する。
この構成を採用することにより、本第3の実施形態によれば、出力推定モデルによる推定値の信頼度を考慮したパラメータ設計を行うことができるという効果が得られる。
第4の実施形態
図16は、本発明の第4の実施形態に係る情報処理装置400の構成を示すブロック図である。図16に示すように、第4の実施形態に係る情報処理装置400は、第3の実施形態において説明した情報処理装置300の学習部310が備える出力推定モデル生成部241の代わりに、出力推定モデル生成部241aを備える構成を有する。その他の要素については、第2および第3の実施形態において説明した要素と同様であるため、その説明は省略する。
出力推定モデル生成部241aは、第2の実施形態において説明した出力推定モデル生成部241の機能に加えて、出力推定モデルの精度を判定する機能を有する。具体的には、出力推定モデル生成部241aは、生成した、あるステップに関する出力推定モデルの精度を計算し、その精度が基準を満たさない場合は、より精度の高い出力推定モデルを作成する機能を有する。
第3の実施形態において説明したように、誤差推定モデル生成部311は、出力推定モデルによる出力変数の推定値と、シミュレーション結果の値との差(誤差)を算出している。出力推定モデル生成部241aは、この誤差の平均値に基づいて、出力推定モデルの精度を計算する。出力推定モデル生成部241aは、また、出力推定モデルによる出力変数の推定値と、シミュレーション結果との差の二乗の平均値に基づいて、出力推定モデルの精度を計算してもよい。
図17は、本第4の実施形態に係る情報処理装置400の出力推定モデル生成部241aの処理を示すフローチャートである。図17を参照して、出力推定モデル生成部241aの処理について説明する。
ここでは、第2の実施形態に示したようなシミュレーションが実行され、推定モデル記憶部250には、ステップt=「10」に関する出力推定モデルが格納されているとする。また、第3の実施形態において説明したように、誤差推定モデル生成部311により計算された、図14に示すような誤差を含む誤差データが、推定結果記憶部280に格納されているとする。
出力推定モデル生成部241aは、誤差推定モデル生成部311により計算された誤差の平均値を計算する(S701)。すなわち、図14に示す例の場合、シミュレーションID=「1」乃至「50」に対応するそれぞれの誤差の平均値を計算する。この平均値が、ステップt=「10」に関する出力推定モデルの精度を示す。
続いて、出力推定モデル生成部241aは、計算した平均値と、予め保持している閾値とを比較する(S702)。
平均値が閾値より大きい場合(S703においてYes)、出力推定モデル生成部241aは、異なるステップに関する出力推定モデルを生成する(S704)。
具体的には、出力推定モデル生成部241aは、すでに作成したステップtに関する出力推定モデルより大きいステップtに関する出力推定モデルを生成する。例えば、ステップt=「10」に関する出力推定モデルを生成していた場合、出力推定モデル生成部241は、ステップt=「30」に関する出力推定モデルを生成してもよい。ただし、すでに作成したステップtに関する出力推定モデルより大きいステップtに関する出力推定モデルを生成することに限定されない。
図18は、出力推定モデルのステップ数と、そのモデルによる出力変数の推定値の誤差の平均値との関係を、X-Y平面座標に示した一例を示す図である。出力推定モデルのステップ数がX軸上に、モデルによる出力変数の推定値の誤差の平均値がY軸上に、それぞれ示されている。
図18に示すように、数の大きいステップに関する出力推定モデルほど、誤差が小さくなる、すなわち、精度が高くなる。これは、実行したステップ数が多いシミュレーション結果を学習して生成された出力推定モデルの方が、実行したステップ数が少ないシミュレーション結果を学習して生成された出力推定モデルよりも、精度が高いことを意味する。
出力推定モデル生成部241aは、第2の実施形態において図7を参照して説明した手順で、例えば、ステップt=「30」に関する出力推定モデルを生成してもよい。出力推定モデル生成部241aは、生成した出力推定モデルについて、上記と同様に、推定値の誤差の平均値を計算し、この誤差の平均値が閾値以下となるまで、異なるステップに関する出力推定モデルの生成を行う。
出力推定モデル生成部241aは、精度が基準を満たす出力推定モデルを生成すると、それを、推定モデル記憶部250に格納する。
以上のように、本第4の実施形態によれば、情報処理装置400は、出力推定モデル生成部241aにより、出力推定モデルによる出力変数の推定値とシミュレーション結果との誤差の平均値に基づいてそのモデルの精度を計算する。出力推定モデル生成部241aは、精度が基準に満たない場合は、より精度が高いモデルを生成する。
上記構成を採用することにより、本第4の実施形態では、精度が基準を満たした出力推定モデルにより出力変数の推定値を算出するので、シミュレーションの出力を、より高い精度で得ることができるという効果が得られる。
第5の実施形態
図19は、本発明の第5の実施形態に係る情報処理装置500の構成を示すブロック図である。図19に示すように、第5の実施形態に係る情報処理装置500は、第3の実施形態において説明した情報処理装置300の構成に加えて、追加シミュレーション結果記憶部285および再学習判定部(再学習指示手段)290を備える構成を有する。その他の要素については、第2および第3の実施形態において説明した要素と同様であるため、その説明は省略する。
追加シミュレーション結果記憶部285は、シミュレーション部210により実行された追加のシミュレーションの実行結果を記憶する。
再学習判定部290は、第4の実施形態において説明したように、出力推定モデル生成部241により、精度が基準を満たすと判定された出力推定モデルについて、その出力推定モデルによる推定値の精度を改めて計算し、必要に応じて再学習することを指示する機能を有する。
図20は、再学習判定部290の処理を示すフローチャートである。図20を参照して、再学習判定部290の処理について説明する。ここで、第4の実施形態において説明したように、出力推定モデル生成部241により、ステップt=「30」に関する出力推定モデルが、その精度が基準を満たすとして、推定モデル記憶部250に格納されているとする。
再学習判定部290は、再学習の判定を実行するタイミングになると(S801においてYes)、推定モデル記憶部250から、出力推定モデルを読み出す(S802)。再学習判定部290は、再学習の判定を、所定のタイミング(例えば、出力推定モデルによる推定値が所定の量蓄積されたタイミング)で行ってもよいし、任意のタイミングで行ってもよい。
続いて、再学習判定部290は、追加のシミュレーションを実行するように、シミュレーション部210に指示する(S803)。再学習判定部290は、シミュレーション部210に対して、入力変数として、第1の入力変数記憶部220に格納される第1の入力変数とは異なる入力変数の値を与えてもよい。また、入力変数の値は、外部から与えられてもよい。
シミュレーション部210は、上記指示に応じて、追加のシミュレーションを実行し、その実行結果を、追加シミュレーション結果記憶部285に格納する(S804)。図21は、追加シミュレーション実行の結果、追加シミュレーション結果記憶部285に書き込まれた入力変数の値、内部変数の更新値および出力変数の値の一例を示す図である。図21では、シミュレーションID=51乃至80に対応する、入力変数の値、各ステップの内部変数の更新値および出力変数の値を示す。追加シミュレーション結果記憶部285に格納されたデータは、追加学習用データとなる。
続いて、再学習判定部290は、追加のシミュレーションの実行に用いられた入力変数の値を、処理S802において読み出した出力推定モデルに入力することにより、推定値を計算する(S805)。
再学習判定部290は、計算した推定値を含む推定結果を、推定結果記憶部280に格納する(S806)。図22は、再学習判定部290により計算された推定結果の一例を示す図である。ここでは、ステップt=「30」に関する出力推定モデルによる推定値を示す。
続いて、再学習判定部290は、出力推定モデルによる推定値の、シミュレーション結果(出力変数の収束値)に対する誤差を、第2の実施形態の誤差推定モデル生成部311と同様に計算する(S807)。そして、再学習判定部290は、その誤差に基づいて、再学習判定処理を行う(S808)。
図23は、再学習判定部290による再学習判定処理を説明するフローチャートである。図23を参照して、再学習判定部290による再学習判定処理について説明する。
再学習判定部290は、第4の実施形態において図17を参照して説明した動作と同様に、処理S807において計算した誤差の平均値を計算する(S901)。
続いて、再学習判定部290は、計算した誤差の平均値と、予め保持している閾値とを比較する(S902)。
誤差の平均値が閾値より大きい場合(S903においてYes)、再学習判定部290は、出力推定モデル生成部241に対して、再学習を指示する(S904)。
出力推定モデル生成部241は、再学習の指示に応じて、追加シミュレーション結果記憶部285に格納された追加シミュレーション結果を、学習用データに追加して、再学習を行う。すなわち、出力推定モデル生成部241は、シミュレーション結果記憶部230に格納された学習用データと、追加シミュレーション結果記憶部285に格納された追加学習用データを学習して、出力推定モデルを生成する。
なお、出力推定モデル生成部241は、再学習において、学習用データのすべてと追加学習用データのすべてを学習することに限定されない。出力推定モデル生成部241は、学習用データのすべてと追加学習用データの一部を、あるいは、学習用データの一部と追加学習用データのすべてを、学習してもよい。例えば、出力推定モデル生成部241は、シミュレーションの条件が同じ結果のみを集めて学習することにより、生成する推定モデルの精度を上げることができる。
あるいは、出力推定モデル生成部241は、追加学習用データのみを学習してもよい。例えば、温暖地条件で推定モデルを学習したが、寒冷地条件では異なる推定モデルを作ったほうが精度が上がる、といった場合に、出力推定モデル生成部241は、追加学習用データのみを学習することにより推定モデルを作り直してもよい。
このとき、出力推定モデル生成部241は、ステップt=「30」に関する出力推定モデルを生成してもよい。あるいは、出力推定モデル生成部241は、第2の実施形態において説明したように出力推定モデルの説明変数として用いる内部変数を選択してもよい。
以上のように、本第5の実施形態によれば、情報処理装置500では、シミュレーション部210により追加のシミュレーションを実行し、再学習判定部290によりその実行結果と、出力推定モデルによる出力変数の推定値との誤差の平均値に基づいて、そのモデルの精度を計算する。再学習判定部290は、精度が基準に満たない場合は、追加のシミュレーションの実行結果を追加学習用データとして含めた学習用データの再学習を行い、出力推定モデルを生成する。
上記構成を採用することにより、本第5の実施形態によれば、生成した出力推定モデルについて精度を計算し、精度が基準を満たさない場合は、追加シミュレーションの実行結果を用いて再学習してモデルを生成しなおすので、シミュレーションの出力を、より高い精度で得ることができるという効果が得られる。
なお、図1等に示した情報処理装置の各部は、それぞれ、図24に例示するハードウエア資源において実現される。すなわち、図24に示す構成は、プロセッサ11、RAM(Random Access Memory)12、ROM(Read Only Memory)13、外部接続インタフェース14、記録装置15および各構成要素を接続するバス16を備える。
上述した各実施形態では、図24に示すプロセッサ11が実行する一例として、情報処理装置に対して、上述した機能を実現可能なコンピュータ・プログラムを供給した後、そのコンピュータ・プログラムを、プロセッサ11がRAM12に読み出して実行することによって実現する場合について説明した。しかしながら、図1等に示した情報処理装置の各ブロックに示す機能は、一部または全部を、ハードウエアとして実現してもよい。すなわち、各装置の各構成要素の一部又は全部は、汎用または専用の回路(circuitry)、プロセッサ等やこれらの組み合わせによって実現される。これらは、単一のチップによって構成されてもよいし、バスを介して接続される複数のチップによって構成されてもよい。各装置の各構成要素の一部又は全部は、上述した回路等とプログラムとの組み合わせによって実現されてもよい。
各装置の各構成要素の一部又は全部が複数の情報処理装置や回路等により実現される場合には、複数の情報処理装置や回路等は、集中配置されてもよいし、分散配置されてもよい。例えば、情報処理装置や回路等は、クライアントアンドサーバシステム、クラウドコンピューティングシステム等、各々が通信ネットワークを介して接続される形態として実現されてもよい。
上記のように情報処理装置に供給されたコンピュータ・プログラムは、読み書き可能なメモリ(一時記憶媒体)またはハードディスク装置等のコンピュータ読み取り可能な記憶デバイスに格納すればよい。そして、このような場合において、本発明は、かかるコンピュータ・プログラムを表すコード或いはかかるコンピュータ・プログラムを格納した記憶媒体によって構成されると捉えることができる。
以上、上述した実施形態を参照して本発明を説明した。しかしながら、本発明は、上述した実施形態には限定されない。即ち、本発明は、本発明のスコープ内において、種々の上記開示要素の多様な組み合わせ乃至選択など、当業者が理解し得る様々な態様を適用することができる。
この出願は、2017年1月31日に出願された日本出願特願2017-015776を基礎とする優先権を主張し、その開示のすべてをここに取り込む。
11 プロセッサ
12 RAM
13 ROM
14 外部接続インタフェース
15 記録装置
16 バス
100乃至500 情報処理装置
110 シミュレーション部
120 学習部
210 シミュレーション部
220 第1の入力変数記憶部
230 シミュレーション結果記憶部
240 学習部
241 出力推定モデル生成部
250 推定モデル記憶部
260 推定部
270 第2の入力変数記憶部
280 推定結果記憶部
285 追加シミュレーション結果記憶部
290 再学習判定部
310 学習部
311 誤差推定モデル生成部

Claims (9)

  1. シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された収束前のステップにおける内部変数の更新値と、該シミュレーションの結果を示す収束時の出力変数の値とを取得する取得手段と、
    前記取得手段により取得された前記入力変数と、前記収束前のステップにおける内部変数を説明変数とし、前記取得手段により取得された前記収束時の出力変数を目的変数として学習し、シミュレーションの結果を推定する推定モデルを生成する学習手段と
    を備えた情報処理装置。
  2. 前記学習された推定モデルに、
    収束した結果が得られていないシミュレーションに用いられた前記入力変数の新たな値と、該新たな値を用いたシミュレーションの実行において更新された内部変数の更新値を入力し、
    前記新たな値を用いたシミュレーションの収束した結果を推定する推定手段
    をさらに備えた請求項記載の情報処理装置。
  3. 前記シミュレーションは、前記入力変数の値に基づいて前記内部変数の値を更新して出力変数の値を生成するステップを、前記出力変数の値が収束するまで繰り返す処理であって、
    前記取得手段は、ステップ毎の内部変数の値を取得し、
    前記学習手段は、あるステップにおいて更新された内部変数と、他のステップにおいて更新された内部変数とをそれぞれ説明変数として用いて、前記推定モデルを生成する
    請求項または請求項に記載の情報処理装置。
  4. 前記学習手段は、小さいステップ数において更新された内部変数を、大きいステップ数において更新された内部変数よりも優先して説明変数として選択して、前記推定モデルを生成する
    請求項に記載の情報処理装置。
  5. 前記学習手段は、前記入力変数の値と、前記内部変数の更新値と、前記推定モデルを用いて推定された推定値と前記シミュレーションの結果が収束した後の出力変数の値との誤差と、に基づいて、前記推定値の誤差を推定する誤差推定モデルを生成する
    請求項乃至請求項のいずれか1項記載の情報処理装置。
  6. 前記学習手段は、前記推定モデルを用いて推定された推定値と前記シミュレーションの結果が収束した後の出力変数の値との誤差に基づいて、前記推定モデルの精度を計算し、前記精度が基準に満たない場合、前記入力変数の値と、前記説明変数として用いたステップ数より大きいステップ数において更新された内部変数を、前記説明変数として用いて前記推定モデルを生成する
    請求項または請求項記載の情報処理装置。
  7. 前記シミュレーションの実行に用いられた前記入力変数の新たな値と、該新たな値を用いたシミュレーションの実行において更新された前記内部変数の更新値と、前記推定モデルとを用いて推定された推定値と前記新たな値を用いたシミュレーションの結果が収束した後の前記出力変数の値との誤差と、に基づいて、前記推定モデルの精度を計算し、前記精度が基準に満たない場合、前記新たな値と、前記新たな値を用いたシミュレーションにおいて更新された内部変数の更新値と、前記新たな値を用いたシミュレーションの結果が収束した後の出力変数の値とに基づいて、前記推定モデルを生成することを指示する再学習指示手段
    をさらに備えた請求項乃至請求項のいずれか1項記載の情報処理装置。
  8. コンピュータが、
    シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された収束前のステップにおける内部変数の更新値と、該シミュレーションの結果を示す収束時の出力変数の値とを取得し、
    前記取得された前記入力変数と、前記収束前のステップにおける内部変数を説明変数とし、前記取得された前記収束時の出力変数を目的変数として学習し、シミュレーションの結果を推定する推定モデルを生成する
    情報処理方法。
  9. シミュレーションの実行に用いられた入力変数の値と、該シミュレーションの実行において更新された収束前のステップにおける内部変数の更新値と、該シミュレーションの結果を示す収束時の出力変数の値とを取得する処理と、
    前記取得された前記入力変数と、前記収束前のステップにおける内部変数を説明変数とし、前記取得された前記収束時の出力変数を目的変数として学習し、シミュレーションの結果を推定する推定モデルを生成する処理と
    を、コンピュータに実行させるプログラム。
JP2018566079A 2017-01-31 2018-01-23 情報処理装置、情報処理方法およびプログラム Active JP7131393B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017015776 2017-01-31
JP2017015776 2017-01-31
PCT/JP2018/002017 WO2018143019A1 (ja) 2017-01-31 2018-01-23 情報処理装置、情報処理方法およびプログラム記録媒体

Publications (2)

Publication Number Publication Date
JPWO2018143019A1 JPWO2018143019A1 (ja) 2019-11-21
JP7131393B2 true JP7131393B2 (ja) 2022-09-06

Family

ID=63040630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018566079A Active JP7131393B2 (ja) 2017-01-31 2018-01-23 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US20190385082A1 (ja)
JP (1) JP7131393B2 (ja)
WO (1) WO2018143019A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020026302A1 (ja) * 2018-07-30 2020-02-06 楽天株式会社 判定システム、判定方法及びプログラム
JP7117686B2 (ja) * 2018-10-30 2022-08-15 日本電気株式会社 解析装置、解析システム、解析方法およびプログラム
US20210390451A1 (en) * 2018-10-30 2021-12-16 Nec Corporation Analysis device, machine learning device, analysis system, analysis method, and recording medium
JP7051025B2 (ja) * 2020-03-19 2022-04-08 三菱電機株式会社 シミュレーション実行システム、シミュレーション実行方法およびシミュレーション実行プログラム
US20230351251A1 (en) * 2020-09-18 2023-11-02 Nippon Telegraph And Telephone Corporation Determination device, determination method, and determination program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271187A (ja) 2006-03-31 2007-10-18 Hitachi Ltd 燃焼装置を有する制御対象物の制御装置、及びボイラを有するプラントの制御装置
WO2016152053A1 (ja) 2015-03-23 2016-09-29 日本電気株式会社 精度推定モデル生成システムおよび精度推定システム
WO2016203757A1 (ja) 2015-06-18 2016-12-22 日本電気株式会社 制御装置、それを使用する情報処理装置、制御方法、並びにコンピュータ・プログラムが格納されているコンピュータ読み取り可能な記憶媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013025349A (ja) * 2011-07-15 2013-02-04 Nec Corp 特徴選択装置、方法、及び、プログラム
JP6870312B2 (ja) * 2016-12-19 2021-05-12 富士通株式会社 施策導入効果予測装置、施策導入効果予測プログラム及び施策導入効果予測方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007271187A (ja) 2006-03-31 2007-10-18 Hitachi Ltd 燃焼装置を有する制御対象物の制御装置、及びボイラを有するプラントの制御装置
WO2016152053A1 (ja) 2015-03-23 2016-09-29 日本電気株式会社 精度推定モデル生成システムおよび精度推定システム
WO2016203757A1 (ja) 2015-06-18 2016-12-22 日本電気株式会社 制御装置、それを使用する情報処理装置、制御方法、並びにコンピュータ・プログラムが格納されているコンピュータ読み取り可能な記憶媒体

Also Published As

Publication number Publication date
WO2018143019A1 (ja) 2018-08-09
JPWO2018143019A1 (ja) 2019-11-21
US20190385082A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP7131393B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7413580B2 (ja) ニューラルネットワークを使用した集積回路フロアプランの生成
CN109063829B (zh) 神经网络构建方法、装置、计算机设备和存储介质
CN110705690B (zh) 基于生成模型和元学习优化方法的连续学习方法及系统
US20160077860A1 (en) Virtual machine placement determination device, virtual machine placement determination method, and virtual machine placement determination program
WO2017197330A1 (en) Two-stage training of a spoken dialogue system
JP2019507405A (ja) 統合システム用の共同シミュレーションを構成する方法
US20140075318A1 (en) Generating and evaluating expert networks
JPWO2018150798A1 (ja) モデル推定システム、方法およびプログラム
CN112686317A (zh) 神经网络训练方法、装置、电子设备及存储介质
US20170132045A1 (en) Load estimation system, information processing device, load estimation method, and storage medium for storing program
US10803218B1 (en) Processor-implemented systems using neural networks for simulating high quantile behaviors in physical systems
US8418119B2 (en) Logical circuit netlist reduction and model simplification using simulation results containing symbolic values
JPWO2014087590A1 (ja) 最適化装置、最適化方法および最適化プログラム
CN116388864B (zh) 量子网络设备性能预测方法、装置、电子设备及存储介质
JP2002108958A (ja) 回路設計システム、回路設計方法および回路設計プログラムを格納したコンピュータ読取り可能な記録媒体
JPWO2017077610A1 (ja) 構造解析方法、及び構造解析プログラム
JP7398625B2 (ja) 機械学習装置、情報処理方法およびプログラム
Poulos et al. Exemplar-based failure triage for regression design debugging
US20210279575A1 (en) Information processing apparatus, information processing method, and storage medium
WO2020218246A1 (ja) 最適化装置、最適化方法、及びプログラム
WO2022074796A1 (ja) 評価方法、評価装置、および評価プログラム
JP6726312B2 (ja) シミュレーション方法、システム、及びプログラム
US7650579B2 (en) Model correspondence method and device
KR20200090061A (ko) 인공신경망 모델의 검증 방법 및 장치

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190711

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201215

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20211020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220314

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7131393

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151