WO2018211914A1 - 推定プログラム、推定方法および推定装置 - Google Patents

推定プログラム、推定方法および推定装置 Download PDF

Info

Publication number
WO2018211914A1
WO2018211914A1 PCT/JP2018/016379 JP2018016379W WO2018211914A1 WO 2018211914 A1 WO2018211914 A1 WO 2018211914A1 JP 2018016379 W JP2018016379 W JP 2018016379W WO 2018211914 A1 WO2018211914 A1 WO 2018211914A1
Authority
WO
WIPO (PCT)
Prior art keywords
value
estimator
result value
error
estimation
Prior art date
Application number
PCT/JP2018/016379
Other languages
English (en)
French (fr)
Inventor
孝 河東
健人 上村
優 安富
遠藤 利生
弘治 丸橋
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to CN201880028353.9A priority Critical patent/CN110637309A/zh
Publication of WO2018211914A1 publication Critical patent/WO2018211914A1/ja
Priority to US16/653,236 priority patent/US20200042876A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0259Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the response to fault detection
    • G05B23/0275Fault isolation and identification, e.g. classify fault; estimate cause or root of failure
    • G05B23/0281Quantitative, e.g. mathematical distance; Clustering; Neural networks; Statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3452Performance evaluation by statistical analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3457Performance evaluation by simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/49Nc machine tool, till multiple
    • G05B2219/49181Calculation, estimation, creation of error model using measured error values

Definitions

  • the present invention relates to an estimation program, an estimation method, and an estimation apparatus.
  • a simulation technique for searching for an input parameter (x) for realizing a certain state (y) has been used. For example, an estimator that estimates an input from an output is learned by using a pair of an input and an output, which are execution results of a past simulation, as training data. Then, using the learned estimator, the input (x) that outputs the output (y) to be obtained is estimated.
  • An object of one aspect is to provide an estimation program, an estimation method, and an estimation apparatus that can improve estimation accuracy.
  • the estimation program uses a first estimator that estimates a parameter value from a result value learned based on past data, and a second estimator that estimates a result value from the parameter value.
  • the estimation program causes the computer to execute a process of searching for a first result value that minimizes the sum of the substitution result calculated from the input result value and the specific result value and the reconstruction error.
  • the estimation program causes a computer to execute a process of outputting a parameter value estimated using the first estimator from the first result value.
  • estimation accuracy can be improved.
  • FIG. 1 is a functional block diagram of a functional configuration of the simulation apparatus according to the first embodiment.
  • FIG. 2 is a diagram illustrating an example of training data stored in the training data DB.
  • FIG. 3 is a diagram illustrating an example of test data stored in the test data DB.
  • FIG. 4 is a diagram for explaining the relationship between assumed training data and test data.
  • FIG. 5 is a diagram for explaining learning of the estimator.
  • FIG. 6 is a diagram for explaining the simulation.
  • FIG. 7 is a diagram for explaining the calculation of the reconstruction error.
  • FIG. 8 is a diagram for explaining generation of substitute data.
  • FIG. 9 is a diagram for explaining the simulation according to the first embodiment.
  • FIG. 10 is a flowchart showing the flow of processing.
  • FIG. 11 is a diagram illustrating comparison of estimated values.
  • FIG. 12 is a diagram illustrating another example of estimator learning.
  • FIG. 13 is a diagram illustrating a hardware configuration example.
  • the simulation apparatus 10 is a computer apparatus for accurately estimating an input corresponding to a certain output with respect to a black box function such as a simulator.
  • the simulation apparatus 10 is used for estimation of a parameter that generates an extreme situation such as flood that is not included in the past simulation result, estimation of a parameter whose output matches actual data, and the like.
  • the simulation apparatus 10 instead estimates the similar data in the range that can be estimated with high accuracy, instead of the data that is originally intended to be estimated.
  • the simulation apparatus 10 can estimate from the training data without directly solving the problem of estimating the actual estimation target (y), and estimates another (y ′) as close as possible to (y). Replace it with a problem and solve it.
  • the simulation apparatus 10 estimates an error (application error) when a certain input (x) is applied to the black box function s (x). Then, instead of the actual estimation target (y), the simulation apparatus 10 exists in a range where the application error is estimated to be small, and is input to substitute data (y ′) that is a neighborhood value in the vicinity of (y) ( x) is estimated.
  • the simulation apparatus 10 uses the learning of the estimator that estimates the output from the input and the learning of the estimator that estimates the input from the output to estimate the range of the output that can be estimated accurately. Even when the value is far from the set of training data and deviates from the range that can be estimated by the estimator, the deterioration of the estimation accuracy is suppressed.
  • FIG. 1 is a functional block diagram of a functional configuration of the simulation apparatus 10 according to the first embodiment.
  • the simulation apparatus 10 includes a communication unit 11, a storage unit 12, and a control unit 20.
  • the simulation apparatus 10 may include a display unit, an input unit, and the like in addition to these.
  • the communication unit 11 is a processing unit that controls communication between other devices, such as a communication interface. For example, the communication unit 11 receives an instruction to start processing from an administrator terminal or the like, receives input of training data or test data, and transmits an estimation result to the administrator terminal.
  • the storage unit 12 is an example of a storage device that stores programs, data, and the like, and is, for example, a memory or a hard disk.
  • the storage unit 12 stores a training data DB 13, a test data DB 14, and an estimation result DB 15.
  • the training data DB 13 is a database that stores pairs of inputs and outputs, which are execution results of past simulations, as training data.
  • FIG. 2 is a diagram illustrating an example of training data stored in the training data DB 13. As illustrated in FIG. 2, the training data DB 13 stores “input, output (y1, y2)”. The “input” is an input to a black box function (s (x)) that is an unknown function such as a simulator, and the “output” is an output when the input (x) is input to the black box function.
  • the test data DB 14 is a database that stores assumed actual data.
  • FIG. 3 is a diagram illustrating an example of test data stored in the test data DB 14. As illustrated in FIG. 3, the test data DB 14 stores “input, output (y1, y2)”. “Input” is an input value for obtaining an output, and “output” is an output when the input is input to the black box function. As shown in FIG. 3, since the output is known and the input is unknown, here, the training data generated from the black box function (s (x)) is learned, and the output (y1) as close to the test data as possible. , Y2) to obtain the input (x).
  • FIG. 4 is a diagram for explaining the relationship between assumed training data and test data.
  • the test data is an output value separated from the distribution of the training data. Therefore, since the test data deviates from the range that can be estimated by the estimator, the estimation accuracy is deteriorated even if the simulation is executed by the conventional method.
  • the estimation result DB 15 is a database that stores an estimation result by the control unit 20 described later.
  • the estimation result DB 15 stores an estimated value of an input estimator enc (y1, y2) when a total error described later becomes less than a threshold value.
  • the control unit 20 is a processing unit that controls the entire simulation apparatus 10, and is, for example, a processor.
  • the control unit 20 includes a training unit 21, an input estimation unit 22, an output estimation unit 23, and a substitute data generation unit 24.
  • the training unit 21, the input estimation unit 22, the output estimation unit 23, and the substitute data generation unit 24 are an example of an electronic circuit included in the processor and an example of a process executed by the processor.
  • the substitute data generation unit 24 is an example of a calculation unit, a search unit, and an output unit.
  • the training unit 21 is a processing unit that learns an input estimator enc (y) using training data and learns an output estimator dec (x) using training data.
  • FIG. 5 is a diagram for explaining learning of the estimator. As shown in FIG. 5, the training unit 21 substitutes the output (y1, y2) of the training data stored in the training data DB 13 into the input estimator enc (y1, y2), and inputs the input (x). learn. The training unit 21 learns the output (y1, y2) by substituting the input (x) of the training data stored in the training data DB 13 into the output estimator dec (x).
  • a linear learner simple perceptron
  • the present invention is not limited to this, and various known learners can be employed.
  • the input estimation unit 22 is a processing unit that estimates an input (x) from an output (y) using an input estimator enc (y). For example, the input estimation unit 22 applies the test data output (y1, y2) to the estimator enc (y) learned by the training unit 21 to estimate the input (x). Then, the input estimation unit 22 outputs the estimated input (x) to the output estimation unit 23.
  • the output estimation unit 23 is a processing unit that estimates the output (y) from the input (x) using the output estimator dec (x). For example, the output estimation unit 23 applies the (x) input from the input estimation unit 22 to the estimator dec (x) learned by the training unit 21 to estimate the output (y). Then, the output estimation unit 23 outputs the estimated output (y) to the substitute data generation unit 24.
  • the substitute data generation unit 24 generates substitute data (y ′) that exists in a range where the error (application error) is estimated to be small instead of the actual estimation target (y), and inputs the substitute data (y ′) to the input estimation unit 22. It is a processing unit.
  • the substitute data generation unit 24 is reconstructed from the substitute error (y ′) and (y ′), which is the difference between the actual estimation target (y) and the substitute data (y ′) (y ′′).
  • FIG. 6 is a diagram for explaining the simulation.
  • the surrogate data generation unit 24 estimates surrogate data (y ′) having a small surrogate error that is an error from the estimation target (y), and inputs the surrogate data (y ′) to the input estimation unit 22.
  • the input estimation unit 22 applies the input substitute data (y ′) to the learned estimator enc (y) to estimate the input (x).
  • the output estimation unit 23 applies the estimated input (x) to the learned estimator dec (x) to estimate the output (y ′′).
  • the simulation apparatus 10 does not aim at minimizing the error of the input (x), but the error (total) of the result s (enc (y)) obtained by applying the estimated enc (y) to the simulator. Since the error is aimed to minimize its estimation), the estimation target y may be changed.
  • the distance for example, Euclidean distance
  • the distance between the prediction target (y) and the substitute data (y ′) is a substitute error
  • the distance between the substitute data (y ′) and the reconstructed data (y ′′) Configuration error is a substitute error.
  • FIG. 7 is a diagram for explaining the calculation of the reconstruction error.
  • the input estimation unit 22 applies the input estimator enc (y) to the test data output (y1, y2) to estimate the input (x).
  • FIG. 8 is a diagram for explaining generation of substitute data.
  • the diamonds shown in FIG. 8 indicate training data, the shaded squares indicate test data (initial values), the white squares indicate substitute data, and the triangles indicate reconstruction data.
  • the substitute data generation unit 24 changes the value (substitute data) from the test data (initial value) so as to reduce the total error obtained by adding the substitute error and the reconstruction error, and executes a simulation (estimation process). .
  • the substitute data generation unit 24 is reconstructed from the difference (substitution error) between the actual estimation target (y) and the substitute data (y ′), the substitute data (y ′), and the substitute data (y ′).
  • (Y ′) that minimizes the total sum (total error) of the difference (reconstruction error) of the reconstruction data (y ′′) is obtained by optimization.
  • FIG. 9 is a diagram for explaining the simulation according to the first embodiment.
  • the output estimation unit 23 applies the input (x) to the estimator dec (x) to estimate the output y ′′ (y1, y2).
  • the substitute data generation unit 24 calculates a reconstruction error (4.578) and a substitute error (0) between the output y and the output y ′′, and calculates a total error (4.578).
  • a threshold value for example, 2
  • the substitute data generation unit 24 sequentially generates substitute data until the total error becomes less than the threshold, and repeats estimation by each estimator.
  • the total error is 1.849, which is less than the threshold. Therefore, the input estimator enc (y1, y2 at this time) ) Is output to the estimation result DB 15 as an estimation result. If it is known that the test data is far from the training data, the substitute data is first generated after the processing is started, and the estimation using the substitute data is not performed. You can also start.
  • FIG. 10 is a flowchart showing the flow of processing. As illustrated in FIG. 10, the training unit 21 learns the input estimator enc using the training data (S101), and learns the output estimator dec using the training data (S102).
  • the substitute data generation unit 24 generates substitute data y ′ from the test data y (S103).
  • the input estimator 22 estimates the input x for the substitute data y ′ using the input estimator enc (y) (S104), and the output estimator 23 uses the output estimator dec (x). Then, y ′′ for the input x is estimated (S105).
  • the substitute data generation unit 24 calculates a substitute error that is a difference between y and y ′ (S106), and calculates a reconstruction error that is a difference between y ′ and y ′′ (S107). Then, the substitute data generation unit 24 calculates the sum L of the substitute error and the reconstruction error (S108). If L does not converge (S109: No), the substitute data y ′ is corrected in a direction in which L decreases. (S110) and S104 and subsequent steps are executed.
  • the substitute data generation unit 24 outputs x at that time (S111).
  • the simulation apparatus 10 uses the estimator to estimate the parameter value from the result value.
  • the simulation apparatus 10 calculates a value near the estimation accuracy. Can be used to estimate the parameter value.
  • the simulation apparatus 10 can estimate the range of the output that can be estimated with high accuracy by using the learning for estimating the output from the input together with the learning for estimating the input from the output, and the estimation for the outlier is robust. The estimation accuracy can be improved.
  • FIG. 11 is a diagram illustrating comparison of estimated values.
  • the simulation apparatus 10 outputs a value closer to the test data when applied to the black box function than the case where the input estimated value is simply used for the test data separated from the training data.
  • the application error can be finally reduced to 1.789, and the accuracy is improved as compared with a general method. .
  • the estimation accuracy decreases even if the extreme situations are estimated as is, as in the general method, but By estimating an input (for example, rainfall) that causes a situation close to, a decrease in estimation accuracy can be suppressed.
  • the simulation apparatus 10 can also learn the estimator enc and the estimator dec using the AutoEncoder method so that the reconstruction error with respect to the training data becomes small at the time of learning.
  • FIG. 12 is a diagram illustrating another example of estimator learning.
  • the AutoEncoder method two sets of training data can be used: (1) a set of outputs y for the input x, and (2) an output y (option) whose input is unknown.
  • the simulation apparatus 10 can generate substitute data using various methods other than the method described above.
  • the simulation apparatus 10 can generate a substitute data so that a set of training data is represented by a straight line using an approximate value or an average value, and the test data approaches the straight line.
  • each component of each illustrated apparatus is functionally conceptual and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution / integration of each device is not limited to that shown in the figure. That is, all or a part of them can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions. Further, all or any part of each processing function performed in each device may be realized by a CPU and a program analyzed and executed by the CPU, or may be realized as hardware by wired logic.
  • FIG. 13 is a diagram illustrating a hardware configuration example. As shown in FIG. 13, the simulation apparatus 10 includes a communication interface 10a, an HDD (Hard Disk Drive) 10b, a memory 10c, and a processor 10d.
  • a communication interface 10a As shown in FIG. 13, the simulation apparatus 10 includes a communication interface 10a, an HDD (Hard Disk Drive) 10b, a memory 10c, and a processor 10d.
  • HDD Hard Disk Drive
  • the communication interface 10a is a network interface card that controls communication of other devices.
  • the HDD 10b is an example of a storage device that stores programs, data, and the like.
  • Examples of the memory 10c include RAM (Random Access Memory) such as SDRAM (Synchronous Dynamic Random Access Memory), ROM (Read Only Memory), flash memory, and the like.
  • Examples of the processor 10d include a CPU (Central Processing Unit), a DSP (Digital Signal Processor), an FPGA (Field Programmable Gate Array), a PLD (Programmable Logic Device), and the like.
  • the simulation apparatus 10 operates as an information processing apparatus that executes the estimation method by reading and executing a program. That is, the simulation apparatus 10 executes a program that performs the same functions as the training unit 21, the input estimation unit 22, the output estimation unit 23, and the substitute data generation unit 24. As a result, the simulation apparatus 10 can execute a process for executing functions similar to those of the training unit 21, the input estimation unit 22, the output estimation unit 23, and the substitute data generation unit 24.
  • the program referred to in the other embodiments is not limited to being executed by the simulation apparatus 10.
  • the present invention can be similarly applied to a case where another computer or server executes the program or a case where these programs cooperate to execute the program.
  • This program can be distributed via a network such as the Internet.
  • This program is recorded on a computer-readable recording medium such as a hard disk, flexible disk (FD), CD-ROM, MO (Magneto-Optical disk), DVD (Digital Versatile Disc), and the like. It can be executed by being read.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Pure & Applied Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

シミュレーション装置は、過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定装置である。シミュレーション装置は、特定の結果値、または、特定の結果値の近傍にある近傍結果値を用いて、第1の推定器、および、第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出する。シミュレーション装置は、入力された結果値と特定の結果値から算出される代用誤差、および、再構成誤差の和を最小とする第1の結果値を探索する。シミュレーション装置は、第1の結果値から第1の推定器を用いて推定されるパラメータ値を出力する。

Description

推定プログラム、推定方法および推定装置
 本発明は、推定プログラム、推定方法および推定装置に関する。
 従来から、災害の分析やテーラーメード医療など様々な分野で、ある状態(y)を実現するための入力パラメータ(x)を探索するシミュレーション技術が使用されている。例えば、過去のシミュレーションの実行結果である入力と出力の組を訓練データとして使用して、出力から入力を推定する推定器を学習する。そして、学習した推定器を使用して、求めたい出力(y)を出力する入力(x)を推定する。
特開2011-185880号公報 特開2016-8564号公報 特開2004-62440号公報
 しかしながら、上記技術では、求めたい値が訓練データから離れており、推定器が推定可能な範囲を逸脱している場合、推定精度が劣化する。
 例えば、洪水などの極端な状況(y)を発生させるパラメータ(x)を推定する場合、極端な状況(y)が過去のシミュレーション結果に含まれない可能性が高く、そのような場合は、推定されたパラメータ(x)が訓練データからかけ離れたものとなり、信頼性が低下する。また、出力(y)が実データに一致するパラメータ(x)を推定する場合、実データがシミュレータによって実現可能な範囲に含まれるとは限らず、訓練データから逸脱している可能性がある。なお、多種多様かつ膨大な訓練データを予め用意することも考えられるが、非常に時間がかかり、現実的ではない。
 一つの側面では、推定精度を向上させることができる推定プログラム、推定方法および推定装置を提供することを目的とする。
 第1の案では、推定プログラムは、過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定プログラムであって、特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出する処理をコンピュータに実行させる。推定プログラムは、前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索する処理をコンピュータに実行させる。推定プログラムは、前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する処理をコンピュータに実行させる。
 一実施形態によれば、推定精度を向上させることができる。
図1は、実施例1にかかるシミュレーション装置の機能構成を示す機能ブロック図である。 図2は、訓練データDBに記憶される訓練データの例を示す図である。 図3は、テストデータDBに記憶されるテストデータの例を示す図である。 図4は、想定する訓練データとテストデータの関係を説明する図である。 図5は、推定器の学習を説明する図である。 図6は、シミュレーションを説明する図である。 図7は、再構成誤差の算出を説明する図である。 図8は、代用データの生成を説明する図である。 図9は、実施例1にかかるシミュレーションを説明する図である。 図10は、処理の流れを示すフローチャートである。 図11は、推定値の比較を説明する図である。 図12は、推定器の学習の別例を説明する図である。 図13は、ハードウェア構成例を示す図である。
 以下に、本願の開示する推定プログラム、推定方法および推定装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではなく、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
 実施例1にかかるシミュレーション装置10は、シミュレータ等のブラックボックス関数に対して、ある出力に対応する入力を高精度に推定するためのコンピュータ装置である。例えば、シミュレーション装置10は、過去のシミュレーション結果に含まれない洪水などの極端な状況を発生させるパラメータの推定、出力が実データに一致するパラメータの推定などに用いられる。
 一般的に、単純なシミュレータの入力パラメータの予測問題として考えた場合、出力(y)に対する予測結果(x)の誤差の最小化を目指してシミュレーションが実行される。しかし、実際は推定パラメータ(x)の誤差は重要ではなく、(x)をシミュレータに適用した場合の結果s(x)と予測対象(y)の誤差の最小化が重要である。
 そこで、実施例1にかかるシミュレーション装置10は、本来推定したいデータではなく、精度よく推定可能な範囲内にある似たデータを代わりに推定する。具体的には、シミュレーション装置10は、実際の推定対象(y)を推定する問題を直接解かずに、訓練データから推定可能であり、(y)になるべく近い別の(y´)を推定する問題に置き換えて解く。例えば、シミュレーション装置10は、ある入力(x)をブラックボックス関数s(x)に適用した場合の誤差(適用誤差)の見積もりを行う。そして、シミュレーション装置10は、実際の推定対象(y)の代わりに、適用誤差が小さいと見積もられる範囲に存在し、(y)の近傍にある近傍値である代用データ(y´)に対する入力(x)を推定する。
 すなわち、シミュレーション装置10は、入力から出力を推定する推定器の学習と、出力から入力を推定する推定器の学習とを併用して、精度よく推定可能な出力の範囲を見積もることで、求めたい値が訓練データの集合から離れており、推定器が推定可能な範囲を逸脱している場合でも、推定精度の劣化を抑制する。
[機能構成]
 図1は、実施例1にかかるシミュレーション装置10の機能構成を示す機能ブロック図である。図1に示すように、シミュレーション装置10は、通信部11、記憶部12、制御部20を有する。なお、シミュレーション装置10は、これら以外にも、表示部や入力部などを有していてもよい。
 通信部11は、他の装置の間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者端末などから処理開始の指示を受信し、訓練データやテストデータの入力を受け付け、推定結果を管理者端末に送信する。
 記憶部12は、プログラムやデータなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。記憶部12は、訓練データDB13、テストデータDB14、推定結果DB15を記憶する。
 訓練データDB13は、過去のシミュレーションの実行結果である入力と出力の組を訓練データとして記憶するデータベースである。図2は、訓練データDB13に記憶される訓練データの例を示す図である。図2に示すように、訓練データDB13は、「入力、出力(y1、y2)」を記憶する。「入力」は、シミュレータ等の未知の関数であるブラックボックス関数(s(x))への入力であり、「出力」は、入力(x)をブラックボックス関数に入力したときの出力である。図2の例では、ブラックボックス関数(s(x))に、x=0.0を入力したときのシミュレーション結果が(y1=0.4,y2=0.1)であることを示す。なお、ブラックボックス関数(s(x))は、未知の関数であるが、例えば「y1=2x+ε、y2=x+ε、εはノイズ」などが想定される。
 テストデータDB14は、想定される実データを記憶するデータベースである。図3は、テストデータDB14に記憶されるテストデータの例を示す図である。図3に示すように、テストデータDB14は、「入力、出力(y1、y2)」を記憶する。「入力」は、出力を得るための入力値であり、「出力」は、入力をブラックボックス関数に入力したときの出力である。図3に示すように、出力が既知で、入力が不明であることから、ここでは、ブラックボックス関数(s(x))から生成された訓練データを学習し、できるだけテストデータに近い出力(y1,y2)を生成する入力(x)を求める。
 ここで、実施例1が想定する、訓練データとテストデータとの関係を説明する。図4は、想定する訓練データとテストデータの関係を説明する図である。図4に示すように、テストデータは、訓練データの分布から離れた出力値である。したがって、テストデータは、推定器が推定可能な範囲を逸脱しているので、従来手法でシミュレーションを実行しても、推定精度が悪くなる値である。
 推定結果DB15は、後述する制御部20による推定結果を記憶するデータベースである。例えば、推定結果DB15は、後述する合計誤差が閾値未満となったときの入力の推定器enc(y1,y2)の推定値を記憶する。
 制御部20は、シミュレーション装置10全体を司る処理部であり、例えばプロセッサなどである。この制御部20は、訓練部21と入力推定部22と出力推定部23と代用データ生成部24とを有する。なお、訓練部21と入力推定部22と出力推定部23と代用データ生成部24は、プロセッサが有する電子回路の一例やプロセッサが実行するプロセスの一例である。また、代用データ生成部24は、算出部と探索部と出力部の一例である。
 訓練部21は、訓練データを用いて入力の推定器enc(y)を学習し、訓練データを用いて出力の推定器dec(x)を学習する処理部である。図5は、推定器の学習を説明する図である。図5に示すように、訓練部21は、訓練データDB13に記憶される訓練データの出力(y1,y2)を、入力の推定器enc(y1,y2)に代入して、入力(x)を学習する。また、訓練部21は、訓練データDB13に記憶される訓練データの入力(x)を、出力の推定器dec(x)に代入して、出力(y1,y2)を学習する。なお、実施例1では、各推定器として線形学習器(単純パーセプトロン)を用いるが、これに限定されるものではなく、公知の様々な学習器を採用することができる。
 入力推定部22は、入力の推定器enc(y)を用いて、出力(y)から入力(x)を推定する処理部である。例えば、入力推定部22は、訓練部21によって学習した推定器enc(y)にテストデータの出力(y1,y2)を適用して、入力(x)を推定する。そして、入力推定部22は、推定した入力(x)を出力推定部23に出力する。
 出力推定部23は、出力の推定器dec(x)を用いて、入力(x)から出力(y)を推定する処理部である。例えば、出力推定部23は、訓練部21によって学習した推定器dec(x)に入力推定部22から入力された(x)を適用して、出力(y)を推定する。そして、出力推定部23は、推定した出力(y)を代用データ生成部24に出力する。
 代用データ生成部24は、実際の推定対象(y)の代わりに、誤差(適用誤差)が小さいと見積もられる範囲に存在する代用データ(y´)を生成して、入力推定部22に入力する処理部である。また、代用データ生成部24は、実際の推定対象(y)と代用データ(y´)との差である代用誤差と、(y´)と(y´)から再構成された(y´´)との差である再構成誤差の総和(合計誤差)が最小になるような(y´)を最適化によって求める処理部である。
[シミュレーション処理]
 ここで、実施例1にかかるシミュレーションについて説明する。図6は、シミュレーションを説明する図である。図6の左図に示すように、代用データ生成部24は、推定対象である(y)との誤差である代用誤差が小さい代用データ(y´)を見積もり、入力推定部22に入力する。入力推定部22は、入力された代用データ(y´)を学習済みの推定器enc(y)に適用して、入力(x)を推定する。さらに、出力推定部23は、推定された入力(x)を学習済みの推定器dec(x)に適用して、出力(y´´)を推定する。
 そして、代用データ生成部24は、代用データ(y´)と推定器dec(x)によって推定された再構成データ(y´´=dec(enc(y´)))との差である再構成誤差を算出する。続いて、代用データ生成部24は、代用誤差と再構成誤差との合計である合計誤差を算出する。その後、代用データ生成部24は、合計誤差が収束しない場合は、合計誤差が小さくなる新たな代用データ(y´)が算出して、再度、推定器enc(y)および推定器dec(x)による推定を繰り返す。そして、代用データ生成部24は、合計誤差が収束した場合は、その時の(x)を推定結果として出力する。
 なお、実施例1にかかるシミュレーション装置10は、入力(x)の誤差の最小化を目指すのではなく、推定したenc(y)をシミュレータに適用した結果s(enc(y))の誤差(合計誤差はその見積もり)の最小化を目指するので、推定対象であるyを変更してもよい。
 ここで、各データと誤差との関係を説明する。図6の右図に示すように、予測対象であるデータ(y)は訓練データから離れた位置のデータである。そこで、予測対象(y)よりも訓練データに近い代用データ(y´)を用いて、dec(x)を推定し、dec(x)を用いて再構成データ(y´´=dec(enc(y´)))を推定する。ここで、予測対象(y)と代用データ(y´)との距離(例えばユークリッド距離)が代用誤差であり、と代用データ(y´)と再構成データ(y´´)との距離が再構成誤差である。
[再構成誤差の算出]
 次に、再構成誤差の算出手法について説明する。図7は、再構成誤差の算出を説明する図である。図7に示すように、入力推定部22は、テストデータの出力(y1,y2)に入力の推定器enc(y)を適用して、入力(x)を推定する。例えば、入力推定部22は、学習結果「x=-0.00732*y1+1.1763*y2-0.1249」を用いて、入力(x=3.257)を算出する。
 続いて、出力推定部23は、推定器dec(x)に入力(x)を適用して、出力(y1,y2)を推定する。例えば、出力推定部23は、学習結果「y1=1.9171*x+0,3238,y2=0.9686*x+0.1286」を用いて、出力(y1=6.569,y2=3.284)を算出する。
 そして、代用データ生成部24は、テストデータの出力(y1,y2)と、推定結果(y1=6.569,y2=3.284)とのユークリッド距離である4.578を、再構成誤差(L2)として算出する。そして、代用データ生成部24は、この再構成誤差(L2)が閾値以下となるまで、代用データを生成して、各推定器による推定処理を実行させる。
[代用データの生成]
 続いて、代用データの生成について説明する。図8は、代用データの生成を説明する図である。図8に示すひし形は訓練データを示し、網掛けの四角はテストデータ(初期値)を示し、白い四角は代用データを示し、三角は再構成データを示す。代用データ生成部24は、代用誤差と再構成誤差とを加算した合計誤差が小さくなるように、テストデータ(初期値)から値(代用データ)を変更して、シミュレーション(推定処理)を実行させる。
 ここで、代用データ生成部24は、実際の推定対象(y)と代用データ(y´)の差(代用誤差)と、代用データ(y´)と代用データ(y´)から再構成された再構成データ(y´´)の差(再構成誤差)の総和(合計誤差)が最小になるような(y´)を最適化によって求める。
 例えば、代用データ生成部24は、訓練データの総数が閾値以下で少なく、代用誤差の推定精度が不十分と考えられる場合は、合計誤差の計算に再構成誤差の重みを小さくした重み付き和を用いることもできる。より詳細には、代用データ生成部24は、推定誤差+0.8*再合成誤差=合計誤差のように、再構成誤差の重みを小さくして、合計誤差を算出することもできる。
 また、代用データ生成部24は、推定器encや推定器decがニューラルネットワーク等の微分可能な関数として構成されている場合、代用データ(y´)に対する合計誤差の勾配を使って(y´)を最適化することもできる。より詳細には、合計誤差をL=f(y)とすると、encおよびdecがニューラルネットワーク等の微分可能な関数として構成されている場合、fは微分可能となる。この場合、あるyに対して、Lを小さくするためにyに加える微小な値(一般にはベクトル)を求めることができる。この性質を利用して適当なyから開始して、yに対する合計誤差Lの勾配を求め勾配を下る方向にyを順次移動させることで、Lの小さいyを効率よく求めることができる。このような勾配を使う方法(勾配法)としては再急降下法の更新式などを用いることができるが、他の様々な手法の更新式を用いることができる。
[具体例]
 次に、シミュレーションの具体例を説明する。図9は、実施例1にかかるシミュレーションを説明する図である。図9に示すように、まず、入力推定部22は、テストデータの出力y(y1=2.0,y2=3.0)に入力の推定器enc(y)を適用して、入力(x)=3.257を推定し、出力推定部23は、推定器dec(x)に入力(x)を適用して、出力y´´(y1,y2)を推定する。この結果、代用データ生成部24は、出力yと出力y´´との再構成誤差(4.578)と代用誤差(0)を算出し、合計誤差(4.578)を算出する。
 ここで、合計誤差(4.578)が閾値(例えば2)以上であることから、代用データ生成部24は、上述した手法を用いて、再構成誤差が小さくなるように、代用データy´(y1=2.0,y2=2.5)を生成する。そして、入力推定部22は、代用データy´(y1=2.0,y2=2.5)に入力の推定器enc(y)を適用して、入力(x)=2.669を推定し、出力推定部23は、推定器dec(x)に入力(x)を適用して、出力y´´(y1,y2)を推定する。この結果、代用データ生成部24は、出力y´と出力y´´との再構成誤差(3.448)と代用誤差(0.500)を算出し、合計誤差(3.948)を算出する。
 このようにして、代用データ生成部24は、合計誤差が閾値未満となるまで、代用データを順次生成して、各推定器による推定を繰り返す。そして、代用データy´が(y1=3.0,y2=1.5)のときに、合計誤差が1.849で閾値未満となることから、このときの入力の推定器enc(y1,y2)の推定値「1.420」を推定結果として推定結果DB15に出力する。なお、テストデータは、訓練データから遠いデータであることがわかっている場合は、テストデータを用いた推定を実行せずに、処理開始後にまず代用データを生成して、次に代用データによる推定を開始することもできる。
[処理の流れ]
 図10は、処理の流れを示すフローチャートである。図10に示すように、訓練部21は、訓練データを用いて入力の推定器encを学習し(S101)、訓練データを用いて出力の推定器decを学習する(S102)。
 その後、代用データ生成部24は、テストデータyから代用データy´生成する(S103)。そして、入力推定部22は、入力の推定器enc(y)を用いて、代用データy´に対する入力xを推定し(S104)、出力推定器23は、出力の推定器dec(x)を用いて、入力xに対するy´´を推定する(S105)。
 その後、代用データ生成部24は、yとy´の差である代用誤差を計算し(S106)、y´とy´´の差である再構成誤差を計算する(S107)。そして、代用データ生成部24は、代用誤差と再構成誤差との総和Lを算出し(S108)、Lが収束しない場合(S109:No)、Lが小さくなる方向に代用データy´を修正して(S110)、S104以降を実行させる。
 一方で、代用データ生成部24は、Lが収束した場合(S109:Yes)、そのときのxを出力する(S111)。
[効果]
 上述したように、シミュレーション装置10は、推定器を利用して結果値よりパラメータ値を推定する推定方法において、結果値の近傍の値を用いることができる場合に、推定精度の高い近傍の値を用いて、パラメータ値を推定することができる。すなわち、シミュレーション装置10は、入力から出力を推定する学習を出力から入力を推定する学習と併用することで、精度よく推定可能な出力の範囲を見積もることができ、外れ値に対する推定がロバストになり、推定精度を向上することができる。
 図11は、推定値の比較を説明する図である。図11に示すように、シミュレーション装置10は、訓練データから離れたテストデータに対して、単純に入力の推定値を使用する場合より、ブラックボックス関数に適用したときにテストデータに近い値を出力する。つまり、テストデータ(y1=2.0、y2=3.0)を用いた推定結果の合計誤差からノイズを除いた適用誤差が4.522となる。その一方で、テストデータから順次生成される代用データを用いた推定結果の場合、最終的には適用誤差を1.789まで小さくすることができ、一般的な手法と比較して精度が向上する。
 つまり、過去のシミュレーション結果に含まれる洪水などの極端な状況を発生させるパラメータ推定を行う場合、一般的な手法のように、極端な状況をそのまま推定したとしても、推定精度が低下するが、洪水に近い状況を発生させる入力(例えば雨量)を推定することで、推定精度の低下を抑制できる。
 さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。そこで、以下に異なる実施例を説明する。
[推定器の学習]
 例えば、シミュレーション装置10は、AutoEncoder方式を用いて、学習時に、訓練データに対する再構成誤差が小さくなるように、推定器encおよび推定器decを学習することもできる。図12は、推定器の学習の別例を説明する図である。AutoEncoder方式では訓練データとして、(1)入力xに対する出力yの組、(2)入力が不明な出力y(オプション)の2つを使用できる。
 そこで、図12に示すように、シミュレーション装置10は、3つの学習を実行することができる。例えば、図12の(a)に示すように、シミュレーション装置10は、(1)のデータを使用して、出力yに対する入力の推定値x´=enc(y)とxの誤差が小さくなるように、推定器encを学習する。また、図12の(b)に示すように、シミュレーション装置10は、(1)のデータを使用して、入力xに対する出力の推定値y´=dec(x)とyの誤差が小さくなるように、推定器decを学習する。
 また、シミュレーション装置10は、図12の(c)に示すように、(1)のyと(2)のデータを使用して、出力yに対する入力の推定値x´=enc(y)に対する出力の推定値y´=dec(x´)=dec(enc(y))とyの誤差が小さくなるように、推定器encと推定器decを学習する。このようにすることで、シミュレーション装置10は、推定精度をより向上させることができる。
[代用データの生成]
 例えば、シミュレーション装置10は、上述した手法以外の様々な手法を用いて、代用データの生成を行うことができる。例えば、シミュレーション装置10は、訓練データの集合を近似値や平均値などを用いて直線で表し、テストデータがその直線に近づくように、代用データの生成を行うことができる。
[システム]
 上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
 また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア構成]
 図13は、ハードウェア構成例を示す図である。図13に示すように、シミュレーション装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。
 通信インタフェース10aは、他の装置の通信を制御するネットワークインタフェースカードなどである。HDD10bは、プログラムやデータなどを記憶する記憶装置の一例である。
 メモリ10cの一例としては、SDRAM(Synchronous Dynamic Random Access Memory)等のRAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ等が挙げられる。プロセッサ10dの一例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、FPGA(Field Programmable Gate Array)、PLD(Programmable Logic Device)等が挙げられる。
 また、シミュレーション装置10は、プログラムを読み出して実行することで推定方法を実行する情報処理装置として動作する。つまり、シミュレーション装置10は、訓練部21と入力推定部22と出力推定部23と代用データ生成部24と同様の機能を実行するプログラムを実行する。この結果、シミュレーション装置10は、訓練部21と入力推定部22と出力推定部23と代用データ生成部24と同様の機能を実行するプロセスを実行することができる。なお、この他の実施例でいうプログラムは、シミュレーション装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
 このプログラムは、インターネットなどのネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD-ROM、MO(Magneto-Optical disk)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
 10 シミュレーション装置
 11 通信部
 12 記憶部
 13 訓練データDB
 14 テストデータDB
 15 推定結果DB
 20 制御部
 21 訓練部
 22 入力推定部
 23 出力推定部
 24 代用データ生成部

Claims (5)

  1.  過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定プログラムであって、
     特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出し、
     前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索し、
     前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する、
     処理をコンピュータに実行させることを特徴とする推定プログラム。
  2.  前記探索する処理は、前記過去のデータの総数が閾値以下である場合、前記和を算出する際に、前記再構成誤差の重みを前記代用誤差よりも小さくして算出することを特徴とする請求項1に記載の推定プログラム。
  3.  前記探索する処理は、前記第1の推定器および前記第2の推定器がニューラルネットワークを用いた推定器である場合、前記代用誤差と前記再構成誤差との和である合計誤差の勾配を用いて、前記特定の結果値の近傍にある近傍結果値を探索することを特徴とする請求項1に記載の推定プログラム。
  4.  過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定方法であって、
     特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出し、
     前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索し、
     前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する、
     処理をコンピュータが実行することを特徴とする推定方法。
  5.  過去のデータに基づき学習された結果値からパラメータ値を推定する第1の推定器、および、パラメータ値から結果値を推定する第2の推定器を用いた推定装置であって、
     特定の結果値、または、前記特定の結果値の近傍にある近傍結果値を用いて、前記第1の推定器、および、前記第2の推定器により推定された再構成値と入力された結果値から再構成誤差を算出する算出部と、
     前記入力された結果値と前記特定の結果値から算出される代用誤差、および、前記再構成誤差の和を最小とする第1の結果値を探索する探索部と、
     前記第1の結果値から前記第1の推定器を用いて推定されるパラメータ値を出力する出力部と
     を有することを特徴とする推定装置。
PCT/JP2018/016379 2017-05-16 2018-04-20 推定プログラム、推定方法および推定装置 WO2018211914A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201880028353.9A CN110637309A (zh) 2017-05-16 2018-04-20 推断程序、推断方法以及推断装置
US16/653,236 US20200042876A1 (en) 2017-05-16 2019-10-15 Computer-readable recording medium recording estimation program, estimation method, and information processing device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-097669 2017-05-16
JP2017097669A JP6760200B2 (ja) 2017-05-16 2017-05-16 推定プログラム、推定方法および推定装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/653,236 Continuation US20200042876A1 (en) 2017-05-16 2019-10-15 Computer-readable recording medium recording estimation program, estimation method, and information processing device

Publications (1)

Publication Number Publication Date
WO2018211914A1 true WO2018211914A1 (ja) 2018-11-22

Family

ID=64273649

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/016379 WO2018211914A1 (ja) 2017-05-16 2018-04-20 推定プログラム、推定方法および推定装置

Country Status (4)

Country Link
US (1) US20200042876A1 (ja)
JP (1) JP6760200B2 (ja)
CN (1) CN110637309A (ja)
WO (1) WO2018211914A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7351814B2 (ja) * 2020-08-17 2023-09-27 トヨタ自動車株式会社 車両応答予測装置、学習装置、方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094437A (ja) * 2002-08-30 2004-03-25 Fuji Electric Holdings Co Ltd データ予測方法及びデータ予測システム
JP2007299365A (ja) * 2006-04-06 2007-11-15 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2008293259A (ja) * 2007-05-24 2008-12-04 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2011185880A (ja) * 2010-03-10 2011-09-22 Fuji Electric Co Ltd 信頼度評価装置、信頼度評価プログラムおよび信頼度評価方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19616103A1 (de) * 1996-04-23 1997-10-30 Philips Patentverwaltung Verfahren zum Ableiten charakteristischer Werte aus einem Sprachsignal
US8572593B2 (en) * 2007-07-30 2013-10-29 Oracle International Corporation Simplifying determination of whether application specific parameters are setup for optimal performance of associated applications
AU2013389972A1 (en) * 2013-05-24 2015-10-29 Halliburton Energy Services, Inc. Methods and systems for reservoir history matching for improved estimation of reservoir performance
US9524465B2 (en) * 2014-08-05 2016-12-20 E.S.I. Software Ltd System and method for analyzing and prioritizing changes and differences to configuration parameters in information technology systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004094437A (ja) * 2002-08-30 2004-03-25 Fuji Electric Holdings Co Ltd データ予測方法及びデータ予測システム
JP2007299365A (ja) * 2006-04-06 2007-11-15 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2008293259A (ja) * 2007-05-24 2008-12-04 Sony Corp データ処理装置、データ処理方法、及びプログラム
JP2011185880A (ja) * 2010-03-10 2011-09-22 Fuji Electric Co Ltd 信頼度評価装置、信頼度評価プログラムおよび信頼度評価方法

Also Published As

Publication number Publication date
JP2018195029A (ja) 2018-12-06
US20200042876A1 (en) 2020-02-06
JP6760200B2 (ja) 2020-09-23
CN110637309A (zh) 2019-12-31

Similar Documents

Publication Publication Date Title
Sjöberg et al. Initializing Wiener–Hammerstein models based on partitioning of the best linear approximation
JP5418408B2 (ja) シミュレーションパラメータ校正方法、装置及びプログラム
Vanbeylen et al. Blind maximum likelihood identification of Hammerstein systems
KR20200119192A (ko) 트랜지스터의 축약 뉴럴 네트워크 모델링 시스템 및 그 방법
US11195091B2 (en) Reservoir computing system
Wang et al. Quantized kernel maximum correntropy and its mean square convergence analysis
US11620530B2 (en) Learning method, and learning apparatus, and recording medium
US10950225B2 (en) Acoustic model learning apparatus, method of the same and program
JP7110929B2 (ja) 知識補完プログラム、知識補完方法および知識補完装置
CN113779779A (zh) 优化掩模的方法、设备和计算机可读存储介质
JP7303665B2 (ja) 物理システムのハイブリッドモデル生成
WO2018211914A1 (ja) 推定プログラム、推定方法および推定装置
Wang et al. Adaptive LASSO for varying-coefficient partially linear measurement error models
JP2019159835A (ja) 学習プログラム、学習方法および学習装置
Li et al. Stochastic gradient with changing forgetting factor-based parameter identification for Wiener systems
Mu et al. Bayesian variable selection for the Cox regression model with spatially varying coefficients with applications to Louisiana respiratory cancer data
Kim et al. Constrained unscented Kalman filter for structural identification of Bouc–Wen hysteretic system
Dankers et al. Non-parametric identification in dynamic networks
Janardhana Rao et al. MABC‐EPF: Video in‐painting technique with enhanced priority function and optimal patch search algorithm
Eisenhauer The approximate solution of finite‐horizon discrete‐choice dynamic programming models
EP3850495A1 (en) Computer-implemented method and electronic device for detecting influential components in a netlist representing an electrical circuit
Jing On parameter separation of the Wiener system identification
JP7464891B2 (ja) トラフィック変動予測装置、及びトラフィック変動予測方法、並びにトラフィック変動予測プログラム
US20240078361A1 (en) Method and apparatus with circuit design parameter generation
JP7391774B2 (ja) 演算処理装置、情報処理装置及び演算処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18802006

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18802006

Country of ref document: EP

Kind code of ref document: A1