JP2021149590A - Leaning device, learning method, and learning program - Google Patents

Leaning device, learning method, and learning program Download PDF

Info

Publication number
JP2021149590A
JP2021149590A JP2020049439A JP2020049439A JP2021149590A JP 2021149590 A JP2021149590 A JP 2021149590A JP 2020049439 A JP2020049439 A JP 2020049439A JP 2020049439 A JP2020049439 A JP 2020049439A JP 2021149590 A JP2021149590 A JP 2021149590A
Authority
JP
Japan
Prior art keywords
learning
sparse estimation
model
data
degree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020049439A
Other languages
Japanese (ja)
Inventor
和輝 小山
Kazuki Koyama
和輝 小山
恵介 切通
Keisuke Kiritoshi
恵介 切通
智海 大川内
Tomomi Okawachi
智海 大川内
知範 泉谷
Tomonori Izumitani
知範 泉谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2020049439A priority Critical patent/JP2021149590A/en
Publication of JP2021149590A publication Critical patent/JP2021149590A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Complex Calculations (AREA)

Abstract

To allow for appropriately selecting multiple sparse estimation methods suitable for data and setting the degree of application of each of the multiple sparse estimation methods for a model.SOLUTION: An information processing device 10 provided herein comprises an acquisition unit 12a configured to acquire multiple sets of data to which sparse estimation methods can be applied, and a learning unit 122c configured to train a model configured to generate a given output by applying multiple sparse estimation methods to the multiple sets of data used as inputs on the degree of application of each of the multiple sparse estimation methods.SELECTED DRAWING: Figure 1

Description

本発明は、学習装置、学習方法及び学習プログラムに関する。 The present invention relates to a learning device, a learning method and a learning program.

従来、工場、プラント等から収集されるセンサデータ等に基づいて、データ間の因果関係を推定し、それを利用して予測や異常/変化点検知といった課題を解決しようとする手法が様々提案されている。 Conventionally, various methods have been proposed to estimate causal relationships between data based on sensor data collected from factories, plants, etc., and to use them to solve problems such as prediction and abnormality / change point detection. ing.

例えば、オーソドックスな手法として、観測された複数センサデータを用いて、ある特定のセンサの特定の時間遅れが、所望のセンサの挙動にどの程度影響しているか(因果関係があるか)を予測する学習モデルを構築する手法などがある。 For example, as an orthodox method, the observed multiple sensor data is used to predict how much a specific time delay of a specific sensor affects the behavior of a desired sensor (whether there is a causal relationship). There are methods for building learning models.

さらには、スパース推定手法(本質的でない推定値を0と推定できる手法)を応用して、微小な因果関係(あるいは実際因果関係なし)を削ぎ落とした統計的手法(例えば、LASSO)も広く知られている。現実のセンサデータにはノイズが少なからず含まれるが、このようなスパース推定を用いることでノイズ頑強性の向上が期待できる。 Furthermore, a statistical method (for example, LASSO) in which minute causal relationships (or no actual causal relationships) are removed by applying a sparse estimation method (a method that can estimate a non-essential estimated value to 0) is widely known. Has been done. Although noise is not a little included in actual sensor data, improvement of noise robustness can be expected by using such sparse estimation.

また、スパース性の度合いを調整することで、それまで解析者が決めていた有効・非有効の閾値のような基準を、統計的に決定することも可能である。 In addition, by adjusting the degree of sparsity, it is possible to statistically determine criteria such as the effective / ineffective threshold value previously determined by the analyst.

A.E. Hoerl and R.W. Kennard, “Ridge Regression : Biased Estimation for Nonorthogonal Problems”,Technometrics, vol. 12, no. 1, pp. 55-67, 1970.A.E. Hoerl and R.W. Kennard, “Ridge Regression: Biased Estimation for Nonorthogonal Problems”, Technologies, vol. 12, no. 1, pp. 55-67, 1970. R. Tibshirani, “Regression shrinkage and selection via the lasso”, Journal of the Royal Statistical Society : Series B (Statistical Methodology), vol. 58, no. 1, pp. 267-288, 1996.R. Tibshirani, “Regression shrinkage and selection via the lasso”, Journal of the Royal Statistical Society: Series B (Statistical Methodology), vol. 58, no. 1, pp. 267-288, 1996. H. Zou and T. Hastie, “Regularization and variable selection via the elastic net”, Journal of the Royal Statistical Society : Series B (Statistical Methodology), vol. 67, no. 2, pp. 301-320, 2005.H. Zou and T. Hastie, “Regularization and variable selection via the elastic net”, Journal of the Royal Statistical Society: Series B (Statistical Methodology), vol. 67, no. 2, pp. 301-320, 2005. H. Zou, “The Adaptive Lasso and Its Oracle Properties”, J. Am. Stat. Assoc., vol. 101, no. 476, pp. 1418-1429, 2006.H. Zou, “The Adaptive Lasso and Its Oracle Properties”, J. Am. Stat. Assoc., Vol. 101, no. 476, pp. 1418-1429, 2006. H. Zou, T. Hastie, and R. Tibshirani, “Sparse Principal Component Analysis”, Journal of Computational and Graphical Statistics, vol. 15, no. 2, pp. 265-286, 2006.H. Zou, T. Hastie, and R. Tibshirani, “Sparse Principal Component Analysis”, Journal of Computational and Graphical Statistics, vol. 15, no. 2, pp. 265-286, 2006. R. Tibshirani, M. Saunders, S. Rosset, J. Zhu, and K. Knight, “Sparsity and smoothness via the fused lasso”, Journal of the Royal Statistical Society : Series B(Statistical Methodology), vol. 67, no. 1, pp. 91-108, 2005.R. Tibshirani, M. Saunders, S. Rosset, J. Zhu, and K. Knight, “Sparsity and smoothness via the fused lasso”, Journal of the Royal Statistical Society: Series B (Statistical Methodology), vol. 67, no . 1, pp. 91-108, 2005.

スパース推定手法として、それぞれ特徴が異なる、LASSO、Elastic Net、Adaptive LASSO、Group LASSO、Fused LASSO等が提案されている。解析者は、これらのスパース推定手法の中から、解きたい課題に応じて個別に使いたいスパース推定手法を選択し、選択したスパース推定手法に対してスパース性の度合いを調整する必要がある。 LASSO, Elastic Net, Adaptive LASSO, Group LASSO, Fused LASSO, etc., which have different characteristics, have been proposed as sparse estimation methods. The analyst needs to select the sparse estimation method to be used individually according to the problem to be solved from these sparse estimation methods, and adjust the degree of sparseness with respect to the selected sparse estimation method.

しかしながら、解析者がスパース推定手法を適切に選択してスパース推定手法を使いこなすまでには、統計学に関する多くの学習コストが必要である。また、解析者が、仮に統計学に関する理解を得たとしても、スパース推定手法の選択やスパース性の度合いのチューニングなどの試行錯誤に多大な時間と労力が必要である。 However, it takes a lot of statistical learning costs for the analyst to properly select the sparse estimation method and master the sparse estimation method. Moreover, even if the analyst gains an understanding of statistics, a great deal of time and effort is required for trial and error such as selection of a sparse estimation method and tuning of the degree of sparseness.

さらに、従来では、スパース推定手法はそれぞれ単体で用いられることが多く、それらを複数統合した、ハイブリッドな性質をもつスパース推定手法はあまり例をみない。 Furthermore, in the past, each sparse estimation method is often used alone, and there are few examples of a sparse estimation method having a hybrid property that integrates a plurality of them.

本発明は、上記に鑑みてなされたものであって、モデルに対して、データに適した複数のスパース推定手法の選定と複数のスパース推定手法の各適用度合いの設定とを適切に実行できる学習装置、学習方法及び学習プログラムを提供することを目的とする。 The present invention has been made in view of the above, and learning that can appropriately select a plurality of sparse estimation methods suitable for data and set the degree of application of each of the plurality of sparse estimation methods for a model. It is an object of the present invention to provide a device, a learning method and a learning program.

上述した課題を解決し、目的を達成するために、本発明の学習装置は、スパース推定手法を適用可能である複数のデータを取得する取得部と、複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、複数のスパース推定手法の各適用度合いを学習させる学習部と、を有することを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the learning device of the present invention uses an acquisition unit that acquires a plurality of data to which the sparse estimation method can be applied, and a plurality of data as inputs, and a plurality of sparse estimations. It is characterized by having a learning unit for learning each degree of application of a plurality of sparse estimation methods to a model that applies a method and performs a predetermined output.

また、本発明の学習方法は、スパース推定手法を適用可能である複数のデータを取得する工程と、複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、複数のスパース推定手法の各適用度合いを学習させる工程と、を含んだことを特徴とする。 Further, the learning method of the present invention relates to a process of acquiring a plurality of data to which a sparse estimation method can be applied, and a model in which a plurality of data are input and a plurality of sparse estimation methods are applied to perform a predetermined output. It is characterized by including a step of learning each degree of application of a plurality of sparse estimation methods.

また、本発明の学習プログラムは、スパース推定手法を適用可能である複数のデータを取得するステップと、複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、複数のスパース推定手法の各適用度合いを学習させるステップと、コンピュータに実行させることを特徴とする。 Further, the learning program of the present invention relates to a step of acquiring a plurality of data to which a sparse estimation method can be applied, and a model in which a plurality of data are input and a plurality of sparse estimation methods are applied to perform a predetermined output. It is characterized by a step of learning each degree of application of a plurality of sparse estimation methods and a computer executing the sparse estimation method.

本発明によれば、モデルに対して、データに適した複数のスパース推定手法の選定と複数のスパース推定手法の各適用度合いの設定とを適切に実行できる。 According to the present invention, it is possible to appropriately select a plurality of sparse estimation methods suitable for data and set the degree of application of each of the plurality of sparse estimation methods for the model.

図1は、第1の実施形態に係る学習装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of the learning device according to the first embodiment. 図2は、図1に示す情報処理装置によって実行される予測処理の概要を説明する図である。FIG. 2 is a diagram illustrating an outline of prediction processing executed by the information processing apparatus shown in FIG. 図3は、モデルに適用する複数スパース推定手法の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of a plurality of sparse estimation methods applied to a model. 図4は、図3に例示した6つのスパース推定手法を統合してモデルに適用する場合の関係式を示す図である。FIG. 4 is a diagram showing a relational expression when the six sparse estimation methods illustrated in FIG. 3 are integrated and applied to a model. 図5は、スパース推定手法のスパース性度合いの設定値の探索方法を説明する図である。FIG. 5 is a diagram illustrating a method of searching for a set value of the degree of sparseness of the sparse estimation method. 図6は、第1の学習処理において獲得されるスパースな推定解の一例を示す図である。FIG. 6 is a diagram showing an example of a sparse estimated solution acquired in the first learning process. 図7は、実施の形態に係る学習処理の処理手順を示すフローチャートである。FIG. 7 is a flowchart showing a processing procedure of the learning process according to the embodiment. 図8は、従来の手法と、実施の形態におけるスパース学習モデルに対する構築の流れを説明する図である。FIG. 8 is a diagram illustrating a flow of construction for a sparse learning model according to a conventional method and an embodiment. 図9は、プログラムを実行するコンピュータを示す図である。FIG. 9 is a diagram showing a computer that executes a program.

以下に、本願に係る学習装置、学習方法および学習プログラムの実施の形態を図面に基づいて詳細に説明する。なお、この実施の形態により本願に係る学習装置、学習方法および学習プログラムが限定されるものではない。 Hereinafter, the learning device, the learning method, and the embodiment of the learning program according to the present application will be described in detail with reference to the drawings. The learning device, learning method, and learning program according to the present application are not limited by this embodiment.

[実施の形態]
以下の実施の形態では、実施の形態に係る情報処理装置10の構成、情報処理装置10の処理の流れを順に説明し、最後に実施の形態による効果を説明する。
[Embodiment]
In the following embodiment, the configuration of the information processing device 10 and the processing flow of the information processing device 10 according to the embodiment will be described in order, and finally, the effect of the embodiment will be described.

[情報処理装置の構成]
まず、図1を用いて、情報処理装置10の構成を説明する。図1は、実施の形態に係る情報処理装置の構成例を示すブロック図である。情報処理装置10は、複数のスパース推定手法が適用されたモデルであって、複数のデータから目的のデータを精度よく説明するモデルを構築する。情報処理装置10は、モデルに複数のデータを学習させることで、データに適した複数のスパース推定手法と、複数のスパース推定手法の各適用度合い(スパース性度合い)とを探索し、複数のスパース推定を適切にモデルに適用する。
[Configuration of information processing device]
First, the configuration of the information processing apparatus 10 will be described with reference to FIG. FIG. 1 is a block diagram showing a configuration example of an information processing device according to an embodiment. The information processing device 10 is a model to which a plurality of sparse estimation methods are applied, and constructs a model for accurately explaining a target data from a plurality of data. The information processing device 10 searches for a plurality of sparse estimation methods suitable for the data and each degree of application (degree of sparseness) of the plurality of sparse estimation methods by training the model of a plurality of data, and the plurality of sparses. Apply the estimates to the model appropriately.

情報処理装置10は、例えば、工場やプラントなどの監視対象設備に設置されるセンサによって取得された複数のデータを収集し、収集された複数のデータを入力として、目的のデータの挙動を予測するための学習済みのモデルを用いて、目的のデータの挙動の予測値を出力値として出力する。なお、このとき用いるデータは必ずしも系列的なデータ(例えば時系列データなど)でなくてもよい。 The information processing device 10 collects a plurality of data acquired by sensors installed in monitored equipment such as a factory or a plant, and predicts the behavior of the target data by inputting the collected data. The predicted value of the behavior of the target data is output as an output value using the trained model for. The data used at this time does not necessarily have to be serial data (for example, time series data).

ここで、図2を用いて、情報処理装置10によって実行される予測処理の概要を説明する図である。図2は、図1に示す情報処理装置10によって実行される予測処理の概要を説明する図である。 Here, it is a figure explaining the outline of the prediction processing executed by the information processing apparatus 10 with reference to FIG. FIG. 2 is a diagram illustrating an outline of prediction processing executed by the information processing apparatus 10 shown in FIG.

図2の(A)では、プラント内の反応炉や装置などにセンサや運転用の信号などを収集するデバイスが取り付けられ、一定時間毎にデータを収集していることを図示している。そして、図2の(B)では、プロセスデータを項目(プロセス)ごとにプロットしたものを図示しており、情報処理装置10は、分析窓(網掛けされた部分)のデータを切り出す。これは、窓内のデータに基づく因果関係が、窓を時間に沿ってスライドさせたときに変化する度合いを用いて、異常検知や変化点検知を行うときを想定している。これは解析者の目的に応じた前処理であるので、必ずしも分析窓を用いる必要はない。 In FIG. 2A, it is shown that a sensor, a device for collecting operation signals, and the like are attached to a reactor, a device, or the like in the plant, and data is collected at regular intervals. Then, in FIG. 2B, the process data is plotted for each item (process), and the information processing apparatus 10 cuts out the data of the analysis window (shaded portion). This assumes that anomaly detection and change point detection are performed using the degree to which the causal relationship based on the data in the window changes when the window is slid over time. Since this is a preprocessing according to the purpose of the analyst, it is not always necessary to use the analysis window.

情報処理装置10は、プロセスデータから抽出された数値に基づき、予測対象である目的のデータの予測値を、モデルを用いて算出する(図2の(C)参照)。図2の(D)は、情報処理装置10により一定時間ごとに算出された目的のデータの予測値をプロットしたしたものを図示する。例えば、プラントなどに導入する場合は、このプロットを用いて将来の挙動を予測すること、あるいは、予測値と実測値との差異が予め設定した値域を外れた場合にアラームを発生する異常検知や変化点検知などへの活用が期待される。 The information processing apparatus 10 calculates the predicted value of the target data to be predicted by using the model based on the numerical value extracted from the process data (see (C) of FIG. 2). FIG. 2D shows a plot of predicted values of target data calculated by the information processing apparatus 10 at regular intervals. For example, when introducing it to a plant, etc., this plot can be used to predict future behavior, or anomaly detection that generates an alarm when the difference between the predicted value and the measured value deviates from the preset range. It is expected to be used for change point detection.

図1に示すように、この情報処理装置10は、通信処理部11、制御部12および記憶部13を有する。以下に情報処理装置10が有する各部の処理を説明する。 As shown in FIG. 1, the information processing device 10 includes a communication processing unit 11, a control unit 12, and a storage unit 13. The processing of each part of the information processing apparatus 10 will be described below.

通信処理部11は、接続される装置との間でやり取りする各種情報に関する通信を制御する。また、記憶部13は、制御部12による各種処理に必要なデータおよびプログラムを格納し、データ記憶部13a、設定情報記憶部13bおよびモデル記憶部13cを有する。例えば、記憶部13は、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子等の記憶装置である。 The communication processing unit 11 controls communication regarding various information exchanged with the connected device. Further, the storage unit 13 stores data and programs necessary for various processes by the control unit 12, and has a data storage unit 13a, a setting information storage unit 13b, and a model storage unit 13c. For example, the storage unit 13 is a storage device such as a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory).

データ記憶部13aは、取得部12aによって取得されたデータを記憶する。例えば、データ記憶部13aには、データとして、少なくとも、所定の時間幅のフレーム分の最新のプロセスデータが格納されている。 The data storage unit 13a stores the data acquired by the acquisition unit 12a. For example, the data storage unit 13a stores at least the latest process data for a frame having a predetermined time width as data.

設定情報記憶部13bは、モデルに適用する複数のスパース推定手法を探索する際に要する設定情報を記憶する。例えば、設定情報のうち初期設定情報は、解析者によって設定される。具体的には、設定情報は、モデルに適用すべき複数のスパース推定手法の探索範囲を設定する情報である。設定情報は、探索対象のスパース推定手法の範囲(探索対象とする複数のスパース推定手法)、各スパース推定手法のスパース性度合いの範囲、探索回数、終了基準等である。例えば、設定情報として、解析者の事前知識やノウハウに基づいてスパース推定手法の範囲や各スパース性の度合いの範囲が設定されてもよい。また、設定情報は、探索対象外の範囲(例えば、探索対象から除外するスパース推定手法)を示す情報であってもよい。 The setting information storage unit 13b stores the setting information required when searching for a plurality of sparse estimation methods applied to the model. For example, the initial setting information among the setting information is set by the analyst. Specifically, the setting information is information for setting the search range of a plurality of sparse estimation methods to be applied to the model. The setting information includes the range of the sparse estimation method to be searched (a plurality of sparse estimation methods to be searched), the range of the degree of sparseness of each sparse estimation method, the number of searches, the end criterion, and the like. For example, as the setting information, the range of the sparse estimation method and the range of the degree of each sparseness may be set based on the prior knowledge and know-how of the analyst. Further, the setting information may be information indicating a range outside the search target (for example, a sparse estimation method excluded from the search target).

モデル記憶部13cは、学習部122c(後述)によって、最適化されたモデルのパラメータを記憶する。モデルのパラメータには、モデルに適用される複数のスパース推定手法と、各スパース推定手法の各スパース性の度合いとを含む。 The model storage unit 13c stores the parameters of the model optimized by the learning unit 122c (described later). The parameters of the model include a plurality of sparse estimation methods applied to the model and the degree of sparseness of each sparse estimation method.

制御部12は、各種の処理手順などを規定したプログラムおよび所要データを格納するための内部メモリを有し、これらによって種々の処理を実行する。例えば、制御部12は、取得部12a、前処理部12b及び推定部12cを有する。ここで、制御部12は、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)、GPU(Graphical Processing Unit)などの電子回路やASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路である。 The control unit 12 has an internal memory for storing a program that defines various processing procedures and the like and required data, and executes various processing by these. For example, the control unit 12 has an acquisition unit 12a, a preprocessing unit 12b, and an estimation unit 12c. Here, the control unit 12 is, for example, an electronic circuit such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphical Processing Unit), an ASIC (Application Specific Integrated Circuit), or an FPGA (Field Programmable Gate Array). It is an integrated circuit such as.

取得部12aは、スパース推定手法を適用可能である複数のデータであって、処理対象に関する複数のデータを取得する。例えば、取得部12aは、工場やプラントなどの監視対象設備に設置されるセンサから多変量時系列の数値データを定期的(例えば、1分ごと)に受信し、データ記憶部13aに格納する。ここでセンサが取得するデータとは、例えば、監視対象設備である工場、プラント内の装置や反応炉についての温度や圧力、音、振動等の各種プロセスデータである。なお、取得部12aが取得するデータはセンサが取得したデータに限定されるものではなく、例えば、人的に入力された数値データ等でもよい。 The acquisition unit 12a acquires a plurality of data related to the processing target, which is a plurality of data to which the sparse estimation method can be applied. For example, the acquisition unit 12a periodically (for example, every minute) receives numerical data of a multivariate time series from a sensor installed in a monitored facility such as a factory or a plant, and stores it in the data storage unit 13a. Here, the data acquired by the sensor is, for example, various process data such as temperature, pressure, sound, and vibration of the equipment to be monitored, the equipment in the plant, and the reactor. The data acquired by the acquisition unit 12a is not limited to the data acquired by the sensor, and may be, for example, numerical data manually input.

前処理部12bは、取得部12aによって取得された時系列データに所定の前処理を行って、時系列データを加工する。例えば、前処理部12bは、所定幅のプロセスデータを切り出し、切り出した幅のプロセスデータに含まれる各値について、センサごとに代表値(平均値)を算出するようにしてもよい。なお、前処理部12bの処理は省略してもよい。 The pre-processing unit 12b performs a predetermined pre-processing on the time-series data acquired by the acquisition unit 12a to process the time-series data. For example, the preprocessing unit 12b may cut out the process data having a predetermined width and calculate a representative value (average value) for each sensor for each value included in the process data having the cut out width. The processing of the preprocessing unit 12b may be omitted.

推定部12cは、取得部12aによって取得された時系列データを入力として、監視対象設備の状態を予測するための学習済みのモデルを用いて、所定の出力値を出力する。例えば、推定部12cは、前処理部12bによって時系列データが加工された場合には、加工された時系列データを学習済みのモデルに入力し、予め設定された一定時間後の監視対象設備の状態を予測する。 The estimation unit 12c takes the time series data acquired by the acquisition unit 12a as an input, and outputs a predetermined output value using a trained model for predicting the state of the monitored equipment. For example, when the time-series data is processed by the pre-processing unit 12b, the estimation unit 12c inputs the processed time-series data into the trained model, and sets a preset fixed time later for the monitored equipment. Predict the state.

ここで、推定部12cは、例えば、取得部12aによって取得された各センサの時系列データを入力として、後述する学習部122cによって、適用される複数のスパース推定手法と各スパース推定手法の各スパース性度合いとが調整された学習済みのモデルを用いて、監視対象設備の状態を予測する。なお、推定部12cが使用する学習済みのモデルはどのようなモデルであってもよく、また、予測する手法もどのような手法であってもよい。 Here, the estimation unit 12c receives, for example, the time series data of each sensor acquired by the acquisition unit 12a as an input, and the plurality of sparse estimation methods and the sparses of each sparse estimation method applied by the learning unit 122c described later. Predict the condition of the monitored equipment using a trained model with adjusted sexuality. The trained model used by the estimation unit 12c may be any model, and the prediction method may be any method.

推定部12cの構成について説明する。推定部12cは、設定情報受付部121cと、学習部122cと、出力部123cとを有する。 The configuration of the estimation unit 12c will be described. The estimation unit 12c has a setting information receiving unit 121c, a learning unit 122c, and an output unit 123c.

設定情報受付部121cは、モデルに適用する複数のスパース推定手法を探索する際に要する設定情報の入力を受け付ける。 The setting information receiving unit 121c accepts input of setting information required when searching for a plurality of sparse estimation methods applied to the model.

学習部122cは、複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、複数のスパース推定手法の各スパース性度合いを学習させる。学習部122cは、モデルに適用する複数のスパース推定手法の各スパース性度合いを最適化するための第2の学習処理と、第2の学習処理において計算された複数のスパース推定手法の各スパース性度合いが設定された状態でモデルのパラメータを最適化する第1の学習処理とを繰り返し実行する。 The learning unit 122c makes a model that takes a plurality of data as an input and applies a plurality of sparse estimation methods to perform a predetermined output to learn each sparseness degree of the plurality of sparse estimation methods. The learning unit 122c has a second learning process for optimizing the degree of sparseness of each of the plurality of sparse estimation methods applied to the model, and each sparseness of the plurality of sparse estimation methods calculated in the second learning process. The first learning process of optimizing the parameters of the model is repeatedly executed with the degree set.

出力部123cは、学習部122cがパラメータを最適化したモデル(学習済みのモデル)を用いて、監視対象設備の状態を予測する。出力部123cは、所望の目的データの将来予測値、将来予測値に基づいた異常検知、変化点検知及び要因関係などを可視化し、結果を出力する。 The output unit 123c predicts the state of the monitored equipment by using a model (learned model) in which the learning unit 122c has optimized the parameters. The output unit 123c visualizes the future predicted value of the desired target data, the abnormality detection based on the future predicted value, the change point detection, the factor relationship, and the like, and outputs the result.

[スパース推定手法の一例]
次に、モデルに適用する複数スパース推定手法の一例について説明する。図3は、モデルに適用する複数スパース推定手法の一例を模式的に示す図である。図3に示す「Parameter」は、モデルのパラメータでモデルの推定対象である。本実施の形態においてモデルに適用するスパース推定手法は、それぞれ、モデルのパラメータのうち不要なものを「0」として決定する手法である。
[Example of sparse estimation method]
Next, an example of a multiple sparse estimation method applied to the model will be described. FIG. 3 is a diagram schematically showing an example of a plurality of sparse estimation methods applied to a model. “Parameter” shown in FIG. 3 is a parameter of the model and is an estimation target of the model. The sparse estimation method applied to the model in the present embodiment is a method of determining unnecessary parameters of the model as “0”.

図3に示す「RIDGE」は、パラメータを全体的に縮小推定する手法である。「RIDGE」は、厳密にはスパース推定手法ではないが、本実施の形態では、「RIDGE」についても、モデルへの適用を探索する。 “RIDGE” shown in FIG. 3 is a method of reducing and estimating parameters as a whole. Strictly speaking, "RIDGE" is not a sparse estimation method, but in the present embodiment, "RIDGE" is also searched for application to the model.

そして、「LASSO」は、本質的ではないパラメータを0とスパース推定する手法である。「Elastic Net=(1-t)×LASSO+t×RIDGE」」は、「RIDGE」と「LASSO」とをミックスし、それぞれのデメリットを緩和しメリットを強調するような手法である。 And "LASSO" is a method of sparsely estimating a non-essential parameter as 0. "Elastic Net = (1-t) x LASSO + t x RIDGE" is a method that mixes "RIDGE" and "LASSO" to mitigate the disadvantages of each and emphasize the advantages.

「Adaptive LASSO」は、「LASSO」を拡張した手法で、ある統計的な仮定下で推定解の正しさを理論的に保証している手法である。「Adaptive LASSO」は、統計的な仮定が満たされれば正解を理論的に保証する手法である。「Group LASSO」は、パラメータにグループ構造を設定し、グループ構造に沿ったスパース推定解を得る手法である。 "Adaptive LASSO" is an extension of "LASSO" and is a method that theoretically guarantees the correctness of the estimated solution under certain statistical assumptions. "Adaptive LASSO" is a method that theoretically guarantees the correct answer if statistical assumptions are met. "Group LASSO" is a method of setting a group structure for parameters and obtaining a sparse estimation solution along the group structure.

「Fused LASSO」は、データに系列構造が内在する場合、系列に沿った隣接パラメータ同士が等しくなるようなスパース推定手法である。すなわち、「Fused LASSO」は、隣接パラメータの差が「0」となるようにスパース推定を行う手法である。なお、系列構造とは、例えば時系列データの時間方向や画像データの隣接ピクセルなど、隣接パラメータ同士が連続的に変化すべきだと思われる構造のことである。そして、通常の「Fused LASSO」は1階差分までを考慮するが、本実施の形態では、これを拡張し任意のN(>1)階差分まで組み込まれている。 "Fused LASSO" is a sparse estimation method in which adjacent parameters along a series become equal when a series structure is inherent in the data. That is, "Fused LASSO" is a method of performing sparse estimation so that the difference between adjacent parameters is "0". The series structure is a structure in which adjacent parameters such as the time direction of time series data and adjacent pixels of image data should be continuously changed. Then, the normal "Fused LASSO" considers up to the first-order difference, but in the present embodiment, this is extended and incorporated up to an arbitrary N (> 1)-order difference.

本実施の形態では、適用する複数のスパース推定手法及び各スパース推定手法におけるスパース性度合いを含めて探索し、最適なスパース学習モデルを自動構築する。 In the present embodiment, a plurality of applied sparse estimation methods and the degree of sparseness in each sparse estimation method are searched, and an optimum sparse learning model is automatically constructed.

[学習部の処理]
学習部122cは、モデルに複数のデータを学習させることで、データに適した複数のスパース推定手法と、複数のスパース推定手法の各スパース性度合いとを探索し、複数のスパース推定手法を適切にモデルに適用させる。すなわち、モデルには、複数のスパース推定手法が仮想的に統合されて適用される。
[Processing of learning department]
The learning unit 122c searches for a plurality of sparse estimation methods suitable for the data and each sparseness degree of the plurality of sparse estimation methods by training the model with a plurality of data, and appropriately performs the plurality of sparse estimation methods. Apply to model. That is, a plurality of sparse estimation methods are virtually integrated and applied to the model.

図4は、図3に例示した6つのスパース推定手法を統合してモデルに適用する場合の関係式を示す図である。図4の関係式では、第1項が誤差関数であり、第2項がLASSOを示す項であり、第3項がRIDGEを示す項であり、第4項がGroup LASSOを示す項であり、第5項が、N階差分までのFused LASSOを示す項である。第2項から第5項のαL1,αL2,α,αDdは、それぞれLASSO、RIDGE、Group LASSO及びFused LASSOのスパース性の強さ(スパース性度合い)を示すハイパーパラメータである。また、第2項から第5項のγL,γL,γ,γDdは、Adaptive LASSOの強さを示すハイパーパラメータである。αL1,αL2,α,αDdの値は、0を許容しており、使用しないスパース推定手法がある場合には、このスパース推定手法に対応するハイパーパラメータは0に固定される。 FIG. 4 is a diagram showing a relational expression when the six sparse estimation methods illustrated in FIG. 3 are integrated and applied to a model. In the relational expression of FIG. 4, the first term is an error function, the second term is a term indicating LASSO, the third term is a term indicating RIDGE, and the fourth term is a term indicating Group LASSO. The fifth term is a term indicating Fused LASSO up to the Nth-order difference. The terms α L1 , α L2 , α g , and α Dd in the second to fifth terms are hyperparameters indicating the strength of sparsity (degree of sparsity) of LASSO, RIDGE, Group LASSO, and Fused LASSO, respectively. Further, γL 1 , γL 2 , γ g , and γ Dd in the second to fifth terms are hyperparameters indicating the strength of Adaptive LASSO. The values of α L1 , α L2 , α g , and α Dd allow 0, and if there is a sparse estimation method that is not used, the hyperparameter corresponding to this sparse estimation method is fixed to 0.

学習部122cは、モデルに適用する各スパース推定手法のαL,αL,αL,αL,γL,γL,γL,γLを最適化することによって、データに対してスパースな推定解を適切に得ることができるようにしている。学習部122cは、モデルに適用する各スパース推定手法のハイパーパラメータを、以下の第1の学習及び第2の学習の二重の繰り返し処理を実行することによって最適化する。そこで、学習部122cが実行する第1の学習処理と第2の学習処理について説明する。 The learning unit 122c is sparse for the data by optimizing each sparse estimation method applied to the model, αL 1 , αL 2 , αL 3 , αL 4 , γL 1 , γL 2 , γL 3 , γL 4. It makes it possible to obtain an estimated solution appropriately. The learning unit 122c optimizes the hyperparameters of each sparse estimation method applied to the model by executing the following double iterative processing of the first learning and the second learning. Therefore, the first learning process and the second learning process executed by the learning unit 122c will be described.

まず、第1の学習処理は、複数のスパース推定手法の各スパース性度合いが設定された状態で、モデルのパラメータを最適化する。モデルには、後述する第2の学習処理において計算された複数のスパース推定手法の各スパース性度合いが設定される。これらの複数のスパース推定手法の各スパース性度合いは、この第1の学習処理が終了するまで固定される。なお、1回目の第1の学習処理においては、設定情報記憶部13bに設定された初期設定情報が適用される。 First, the first learning process optimizes the parameters of the model in a state where each degree of sparseness of the plurality of sparse estimation methods is set. In the model, each degree of sparseness of the plurality of sparse estimation methods calculated in the second learning process described later is set. Each degree of sparsity of these plurality of sparsity estimation methods is fixed until the first learning process is completed. In the first learning process, the initial setting information set in the setting information storage unit 13b is applied.

第1の学習処理は、入力される複数のデータ(例えば、時系列データ)と複数のデータに対する所定の出力(一定時間後の監視対象の観測値)との関係をモデルに学習させる処理である。例えば、第1の学習処理では、モデルを用いてスパース推定を行い、センサから出力された実際の観測値と、複数のデータの入力に対してモデルが出力した予測値との誤差を評価することによって、モデルのパラメータを更新する。第1の学習処理は、所定の第1の終了基準を満たすまで、観測値と予測値との誤差の評価及びパラメータの更新を繰り返し実行することで、モデルのパラメータを最適化する。第1の終了基準は、例えば、第1の学習処理の繰り返し回数が所定回数に達したこと、観測値と予測値との誤差の改善が所定値未満であること等がある。 The first learning process is a process in which a model learns the relationship between a plurality of input data (for example, time series data) and a predetermined output (observed value to be monitored after a certain period of time) for the plurality of data. .. For example, in the first learning process, sparse estimation is performed using a model, and the error between the actual observed value output from the sensor and the predicted value output by the model for the input of a plurality of data is evaluated. Update the model parameters. The first learning process optimizes the parameters of the model by repeatedly evaluating the error between the observed value and the predicted value and updating the parameters until a predetermined first termination criterion is satisfied. The first termination criterion is, for example, that the number of repetitions of the first learning process reaches a predetermined number of times, the improvement of the error between the observed value and the predicted value is less than the predetermined value, and the like.

そして、第2の学習処理では、モデルに適用する複数のスパース推定手法の各スパース性度合いを最適化する。例えば、第2の学習処理では、学習部122cによる一連の学習結果に基づいて複数のスパース推定手法の各スパース性度合いの確度をそれぞれ求め、各確度を基にモデルに適用する複数のスパース推定手法の各スパース性度合いを設定する。確度とはこのスパース性度合いをモデルに適用することにより、よい評価(例えば予測精度が高い結果)が得られる蓋然性を示す指標であり、例えば、獲得関数の値を用いることが考えられる。学習部122cは、第2の学習処理において設定された複数のスパース推定手法の各スパース性度合いを固定した状態で、次の第1の学習処理を実行する。 Then, in the second learning process, each sparseness degree of the plurality of sparse estimation methods applied to the model is optimized. For example, in the second learning process, the accuracy of each sparseness degree of the plurality of sparse estimation methods is obtained based on a series of learning results by the learning unit 122c, and the plurality of sparse estimation methods applied to the model based on each accuracy. Set each degree of sparsity. The accuracy is an index showing the probability that a good evaluation (for example, a result with high prediction accuracy) can be obtained by applying this sparsity degree to the model. For example, it is conceivable to use the value of the acquisition function. The learning unit 122c executes the next first learning process in a state where each degree of sparseness of the plurality of sparse estimation methods set in the second learning process is fixed.

また、学習部122cは、各確度を基にモデルに適用する複数のスパース推定手法の各スパース性度合いを設定した後、所定の第2の終了基準を満たす場合には、第1の学習処理を実行せず、最適化したモデルのパラメータ情報を出力部123cに入力する。モデルのパラメータ情報には、モデルに適用されるスパース推定手法の各スパース性度合いが含まれる。なお、第2の終了基準は、例えば、第2の学習処理の繰り返し回数(探索回数)が所定回数に達したこと、観測値と予測値との誤差が所定値未満であること等がある。 Further, the learning unit 122c sets the degree of sparseness of the plurality of sparse estimation methods to be applied to the model based on each accuracy, and then performs the first learning process when the predetermined second end criterion is satisfied. The parameter information of the optimized model is input to the output unit 123c without being executed. The parameter information of the model includes each degree of sparseness of the sparse estimation method applied to the model. The second end criterion may be, for example, that the number of repetitions (the number of searches) of the second learning process has reached a predetermined number, and that the error between the observed value and the predicted value is less than the predetermined value.

図5は、スパース推定手法のスパース性度合いの設定値の探索方法を説明する図である。図5の(a−13)においては、縦軸が、観測値と第1の学習処理において得られた予測値との誤差を示し、横軸が、スパース性度合いを示す。そして、図5の(b−13)においては、縦軸が確度を示し、横軸がスパース性度合いを示す。図5の(a−13)及び図5の(b−13)は、13回目の第2の学習処理におけるLASSOのスパース性度合いに対応する。 FIG. 5 is a diagram illustrating a method of searching for a set value of the degree of sparseness of the sparse estimation method. In FIG. 5A-13, the vertical axis indicates the error between the observed value and the predicted value obtained in the first learning process, and the horizontal axis indicates the degree of sparsity. Then, in FIG. 5 (b-13), the vertical axis indicates the accuracy and the horizontal axis indicates the degree of sparsity. (A-13) of FIG. 5 and (b-13) of FIG. 5 correspond to the degree of sparsity of LASSO in the 13th second learning process.

なお、図5では、スパース推定手法ごとにそれぞれ1枚の平面図で表現しており、各スパース推定手法の設定値全体の次元空間で同様の処理を行っている。これについては、図5では平面図の奥行で表現している。すなわち、図5のグラフ群G13a,G13bに示すように、13回目の第1の学習処理におけるLASSOのスパース性度合いに関する誤差または確度を示すグラフの背後には、13回目の第1の学習処理における他のスパース推定手法のスパース度合いに関する誤差または確度を示すグラフが重なっている。そして、1回目〜12回目のグラフは、「効率的に探索」の軸に沿って紙面左側に連なっている。 In FIG. 5, each sparse estimation method is represented by one plan view, and the same processing is performed in the dimension space of the entire set value of each sparse estimation method. This is represented by the depth of the plan view in FIG. That is, as shown in the graph groups G13a and G13b of FIG. 5, behind the graph showing the error or accuracy regarding the sparsity degree of LASSO in the 13th first learning process, the 13th first learning process is performed. Graphs showing the error or accuracy of the degree of sparseness of other sparse estimation methods overlap. The first to twelfth graphs are continuous on the left side of the page along the axis of "efficient search".

学習部122cは、13回目の第2の学習処理において、13回目の第1の学習処理における観測値と予測値との誤差や信頼区間(図5の(a−13)の(1)参照)に対する最終的な評価結果を今回の探索結果とするとともに、これまでの探索結果(1回目から12回目までの第1および第2の学習処理における結果)も含めて、統計的にスパース度合いの可能性を示す関数(例えば、図5の(b−13)参照)を算出する。この関数は、図5の(b−13)に示すように、確度とスパース性度合いとの関係を示す関数である。学習部122cは、この関数より、最も可能性の高い(関数が最大となる)確度を求める。そして、学習部122cは、この確度を基に、次の探索における設定値(スパース推定手法のスパース性度合いの設定値)を計算してモデルに適用し、第1の学習処理を実行する。 In the 13th second learning process, the learning unit 122c has an error and a confidence interval between the observed value and the predicted value in the 13th first learning process (see (1) in (a-13) of FIG. 5). The final evaluation result for is used as the result of this search, and the degree of sparseness is statistically possible, including the results of the previous search (results in the first and second learning processes from the first to the twelfth). A function indicating the sex (for example, see (b-13) in FIG. 5) is calculated. As shown in FIG. 5 (b-13), this function is a function showing the relationship between the accuracy and the sparsity degree. The learning unit 122c finds the most probable (maximum function) accuracy from this function. Then, the learning unit 122c calculates the set value in the next search (the set value of the degree of sparseness of the sparse estimation method) based on this accuracy, applies it to the model, and executes the first learning process.

例えば、図5の(b−13)に示すように、LASSOのスパース性度合いについては、点P13において確度が最大となるため、学習部122cは、点P13に示す確度に対応したスパース性度合いを、次の14回目の探索におけるLASSOのスパース性度合いとして設定する(図5の(b−13)の(2)及び矢印Y13参照)。学習部122cは、他のスパース推定手法についても、同様に、最も可能性の高い確度に対応するスパース性度合いを次の14回目の探索におけるスパース性度合いとして設定する。そして、学習部122cは、設定した各スパース推定手法のスパース性度合いをモデルに適用し、第1の学習処理を実行する。 For example, as shown in FIG. 5 (b-13), the accuracy of the LASSO degree of sparsity is maximized at the point P13, so that the learning unit 122c determines the degree of sparsity corresponding to the accuracy shown at the point P13. , Set as the degree of sparsity of LASSO in the next 14th search (see (2) in (b-13) and arrow Y13 in FIG. 5). Similarly, for the other sparsity estimation methods, the learning unit 122c sets the sparsity degree corresponding to the most probable accuracy as the sparsity degree in the next 14th search. Then, the learning unit 122c applies the sparseness degree of each set sparse estimation method to the model, and executes the first learning process.

同様に、学習部122cは、14回目の第2の学習処理では、14回目の第1の学習処理において得られた第1の学習処理における最終的な評価結果(図5の(a−14)参照)と、1回目から13回目までの学習結果と基に、スパース推定手法の各スパース性度合いの確度を求める。そして、学習部122cは、この確度を基に次の15回目の探索における設定値を計算してモデルに適用し、15回目の第1の学習処理を実行する。例えば、LASSOについては、図5の(b−14)の点P14の確度に応じたスパース性度合いを、次の15回目の第1の学習処理におけるLASSOのスパース度合いとして設定する。 Similarly, in the 14th second learning process, the learning unit 122c has a final evaluation result in the first learning process obtained in the 14th first learning process ((a-14) in FIG. 5). (See) and the accuracy of each sparseness degree of the sparse estimation method is obtained based on the learning results from the first to the thirteenth times. Then, the learning unit 122c calculates the set value in the next 15th search based on this accuracy, applies it to the model, and executes the 15th first learning process. For example, for LASSO, the degree of sparsity according to the accuracy of point P14 in FIG. 5 (b-14) is set as the degree of sparsity of LASSO in the next 15th first learning process.

学習部122cは、第1の学習処理と第2の学習処理とを繰り返し実行することによって、複数のスパース推定手法の各スパース性度合いの組み合わせの中から、最良の組み合わせであると思われる可能性が高い、スパース性度合いの組み合わせを求める。 By repeatedly executing the first learning process and the second learning process, the learning unit 122c may be considered to be the best combination among the combinations of each sparseness degree of the plurality of sparse estimation methods. To find a combination of high sparseness.

図6は、第1の学習処理において獲得されるスパースな推定解の一例を示す図である。第1の学習処理では、設定された各スパース性度合いの組み合わせに基づいて、モデルのパラメータを最適化する、この結果、図5に示すように、白色(=0)が局在することから、本実施の形態では、本質的でないパラメータを削ぎ落としたスパースな推定解を得ていることがわかる。 FIG. 6 is a diagram showing an example of a sparse estimated solution acquired in the first learning process. In the first learning process, the parameters of the model are optimized based on the combination of each set sparsity degree. As a result, as shown in FIG. 5, white color (= 0) is localized. It can be seen that in this embodiment, a sparse estimation solution is obtained by removing non-essential parameters.

[学習処理の処理手順]
次に、情報処理装置10が実行するモデルの学習処理について説明する。図7は、実施の形態に係る学習処理の処理手順を示すフローチャートである。
[Processing procedure of learning process]
Next, the learning process of the model executed by the information processing apparatus 10 will be described. FIG. 7 is a flowchart showing a processing procedure of the learning process according to the embodiment.

図7に示すように、情報処理装置10は、設定情報受付部121cが、モデルに適用する複数のスパース推定手法を探索する際に要する設定情報の入力を受け付ける(ステップS1)。学習部122cは、モデルに対する各スパース推定手法のスパース性度合いを設定する(ステップS2)。学習部122cは、最初の学習処理の場合には、設定情報記憶部13bに設定された初期設定情報にしたがって、モデルに対する各スパース推定手法のスパース性度合いを設定する。また、学習部122cは、2回目以降の学習処理の場合には、直前の第2の学習処理において計算された複数のスパース推定手法の各スパース性度合いをモデルに設定する。 As shown in FIG. 7, the information processing apparatus 10 receives the input of the setting information required when the setting information receiving unit 121c searches for a plurality of sparse estimation methods applied to the model (step S1). The learning unit 122c sets the degree of sparseness of each sparse estimation method for the model (step S2). In the case of the first learning process, the learning unit 122c sets the degree of sparseness of each sparse estimation method for the model according to the initial setting information set in the setting information storage unit 13b. Further, in the case of the second and subsequent learning processes, the learning unit 122c sets each sparseness degree of the plurality of sparse estimation methods calculated in the immediately preceding second learning process in the model.

続いて、学習部122cは、複数のスパース推定手法の各スパース性度合いが設定された状態で、モデルのパラメータを最適化する第1の学習処理を実行する。例えば、学習部122cは、モデルを用いてスパース推定を行い、センサから出力された実際の観測値と、複数のデータの入力に対してモデルが出力した予測値との誤差を評価することによって、モデルのパラメータを更新する(ステップS3)。学習部122cは、第1の終了基準を満たすか否かを判定し(ステップS4)、第1の終了基準を満たしていない場合(ステップS4:No)、第1の終了基準を満たすまで、観測値と予測値との誤差の評価及びパラメータの更新を繰り返し実行する。 Subsequently, the learning unit 122c executes the first learning process for optimizing the parameters of the model in a state where each sparseness degree of the plurality of sparse estimation methods is set. For example, the learning unit 122c performs sparse estimation using the model, and evaluates the error between the actual observed value output from the sensor and the predicted value output by the model with respect to the input of a plurality of data. The model parameters are updated (step S3). The learning unit 122c determines whether or not the first termination criterion is satisfied (step S4), and if the first termination criterion is not satisfied (step S4: No), observes until the first termination criterion is satisfied. The error between the value and the predicted value is evaluated and the parameter is updated repeatedly.

第1の終了基準を満たすと(ステップS4:Yes)、学習部122cは、モデルに適用する複数のスパース推定手法の各スパース性度合いを最適化する第2の学習処理を行う。学習部122cによる一連の学習結果に基づいて複数のスパース推定手法の各スパース性度合いの確度をそれぞれ求める(ステップS5)。そして、学習部122cは、第2の終了基準を満たすか否かを判定する(ステップS6)。 When the first termination criterion is satisfied (step S4: Yes), the learning unit 122c performs a second learning process for optimizing each sparseness degree of the plurality of sparse estimation methods applied to the model. Based on a series of learning results by the learning unit 122c, the accuracy of each sparseness degree of the plurality of sparse estimation methods is obtained (step S5). Then, the learning unit 122c determines whether or not the second end criterion is satisfied (step S6).

第2の終了基準を満たしていない場合(ステップS6:No)、ステップS2に進み、ステップS5において求めた、複数のスパース推定手法における各確度を基に、モデルに適用する複数のスパース推定手法の各スパース性度合いを設定する(ステップS2)。そして、第1の学習処理を実行する。 If the second termination criterion is not met (step S6: No), the process proceeds to step S2, and the plurality of sparse estimation methods applied to the model are based on the respective accuracy in the plurality of sparse estimation methods obtained in step S5. Each sparsity degree is set (step S2). Then, the first learning process is executed.

これに対し、第2の終了基準を満たす場合(ステップS6:Yes)、最適化した、複数のスパース推定手法の各スパース性度合いを含むパラメータをモデルに適用して処理を終了する。出力部123cは、学習済みのモデルを用いて、監視対象設備の状態の予測等を行い、結果を出力する。 On the other hand, when the second termination criterion is satisfied (step S6: Yes), the process is terminated by applying a parameter including each sparsity degree of the optimized plurality of sparsity estimation methods to the model. The output unit 123c predicts the state of the monitored equipment using the trained model, and outputs the result.

[実施の形態の効果]
図8は、従来の手法と、実施の形態におけるスパース学習モデルに対する構築の流れを説明する図である。
[Effect of Embodiment]
FIG. 8 is a diagram illustrating a flow of construction for a sparse learning model according to a conventional method and an embodiment.

図8に示すように、従来の手法では、様々なスパース推定手法の中から、個別または少数の組み合わせを選択して学習を行う。この際、従来の手法では、どのスパース推定手法を選択するかを、データの種類や問題設定に応じて解析者が決定する必要があり、解析者は、さらに、選択したスパース推定手法に個別にスパース性度合いを設定する必要がある。 As shown in FIG. 8, in the conventional method, learning is performed by selecting an individual or a small number of combinations from various sparse estimation methods. At this time, in the conventional method, it is necessary for the analyst to decide which sparse estimation method to select according to the data type and the problem setting, and the analyst further individually selects the selected sparse estimation method. It is necessary to set the degree of sparsity.

ここで、スパース性度合いを大きくすると、よりスパースな推定解が得られるものの、極端に大きくしすぎると、例えばLASSOでは全てのパラメータが0に推定されるなど不都合がある。逆に、スパース性度合いを極端に小さくしすぎると、スパースな推定解が得られない。したがって、解析者は、スパース性度合いを適切な値にチューニングする必要があり、チューニングするまでに解析者は試行錯誤をせざるを得なかった(図8の(1)及び枠W1参照)。このように、従来の手法では、解析者に属人化する事前知識やノウハウの影響が大きく、試行錯誤を効果的に乗り越えて、精度の高いモデルを獲得することが困難であった。 Here, if the degree of sparsity is increased, a more sparse estimated solution can be obtained, but if it is made extremely large, for example, in LASSO, all parameters are estimated to be 0, which is inconvenient. On the contrary, if the degree of sparseness is made extremely small, a sparse estimation solution cannot be obtained. Therefore, the analyst needs to tune the degree of sparsity to an appropriate value, and the analyst has to make trial and error before tuning (see (1) in FIG. 8 and frame W1). As described above, with the conventional method, the influence of prior knowledge and know-how to be personalized to the analyst is large, and it is difficult to effectively overcome trial and error and obtain a highly accurate model.

これに対し、本実施の形態では、複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、複数のスパース推定手法の各スパース性度合いを学習させる。本実施の形態では、モデルに適用する複数のスパース推定手法の各スパース性度合いを最適化するための第2の学習処理と、第2の学習処理において計算された複数のスパース推定手法の各スパース性度合いが設定された状態でモデルのパラメータを最適化する第1の学習処理とを繰り返し実行する。これによって、本実施の形態では、複数のスパース推定手法の選択や各スパース推定手法のスパース性度合いのチューニングを自動的に行うことができる(図8の(2)及び枠W2参照)。 On the other hand, in the present embodiment, a model in which a plurality of data are input and a plurality of sparse estimation methods are applied to perform a predetermined output is made to learn each degree of sparseness of the plurality of sparse estimation methods. In the present embodiment, the second learning process for optimizing each sparseness degree of the plurality of sparse estimation methods applied to the model, and each sparse of the plurality of sparse estimation methods calculated in the second learning process. The first learning process of optimizing the parameters of the model is repeatedly executed with the degree of sex set. Thereby, in the present embodiment, it is possible to automatically select a plurality of sparse estimation methods and tune the degree of sparseness of each sparse estimation method (see (2) in FIG. 8 and frame W2).

すなわち、本実施の形態では、例えば図3に示す性質の異なるスパース推定手法を全て内包し、また各スパース推定の手法個別のスパース性の度合いなどを自動調整できるような学習手法を実現している。これによって、本実施の形態では、個々に特徴的な性質をもつ多くのスパース推定手法から、データに適切に応じたハイブリッドなスパース推定手法を、個々のスパース性の度合いも含めて、多角的な視点で最適な状態に自動的にチューニングし、これまで試行錯誤で獲得していた過程を、一括で効果的に獲得することができる。このようなチューニングは、一般には組み合わせ問題となり実時間では困難な場合が多いが、本実施の形態では、統計学的な手法を用いることで、効率的に実時間での探索を行うことができる(図5参照)。 That is, in the present embodiment, for example, a learning method is realized in which all the sparse estimation methods having different properties shown in FIG. 3 are included, and the degree of sparseness of each sparse estimation method can be automatically adjusted. .. As a result, in the present embodiment, from many sparse estimation methods having individual characteristic properties, a hybrid sparse estimation method appropriately adapted to the data, including the degree of individual sparseness, is multifaceted. It automatically tunes to the optimum state from the viewpoint, and the process that has been acquired by trial and error can be effectively acquired in a lump. Such tuning is generally a combination problem and is often difficult in real time, but in the present embodiment, a statistical method can be used to efficiently perform a search in real time. (See FIG. 5).

そして、本実施の形態では、仮に解析者に統計学の素養がなかったとしても、一連の処理が自動的に行われるため、素養のある解析者と同水準のモデルを構築することも可能である。また、本実施の形態では、特定のスパース推定手法のスパース性度合いを事前に指定することによって、モデルの構築に解析者の知見を反映することも可能である。 Then, in the present embodiment, even if the analyst does not have a background in statistics, a series of processes are automatically performed, so that it is possible to build a model at the same level as an analyst with a background. be. Further, in the present embodiment, it is possible to reflect the knowledge of the analyst in the construction of the model by specifying the degree of sparseness of the specific sparse estimation method in advance.

そして、本実施の形態では、複数のスパース推定手法を内包するため、適用対象となるデータの範囲が非常に広くなる。さらに、本実施の形態では、複数のスパース推定手法が内包関係にあるため、設定情報において、学習対象のスパース推定手法を限定することによって、複数のスパース推定手法のうち特定のスパース推定手法にのみに限定してモデルの学習を設定することも可能である。例えば、本実施の形態では、使用したくないスパース推定手法に関するスパース性度合いを0とすることで、一部のスパース推定手法のみに限定したモデルを構築することができる。 Further, in the present embodiment, since a plurality of sparse estimation methods are included, the range of applicable data becomes very wide. Further, in the present embodiment, since a plurality of sparse estimation methods have an inclusive relationship, by limiting the sparse estimation methods to be learned in the setting information, only a specific sparse estimation method among the plurality of sparse estimation methods can be used. It is also possible to set the learning of the model only to. For example, in the present embodiment, by setting the degree of sparseness of the sparse estimation method that is not desired to be used to 0, it is possible to construct a model limited to only a part of the sparse estimation methods.

このように、本実施の形態によれば、従来の手法と比較して、高精度なモデル及び推定解を得られるだけでなく、スパース推定の効用で不要な本質的でない要因関係を0に削ぎ落としたスパースな推定解を得ることができる。さらに、本実施の形態によれば、解析者に統計学の素養がなかったとしても、様々なスパース推定手法を基づいた適切なモデルの自動構築でき、また、解析者に事前ノウハウがある場合には、そのノウハウを一部または全部反映し、残りの不明確な部分のみ自動チューニングを行うことも可能である。 As described above, according to the present embodiment, not only a highly accurate model and an estimated solution can be obtained as compared with the conventional method, but also unnecessary non-essential factor relations are reduced to 0 due to the utility of sparse estimation. You can get a sparse estimated solution that you dropped. Further, according to the present embodiment, even if the analyst has no statistical background, an appropriate model can be automatically constructed based on various sparse estimation methods, and the analyst has prior know-how. Can reflect that know-how in part or in whole, and automatically tune only the remaining unclear parts.

また、本実施の形態では、データの如何を問わず統一的に適用可能で、従来行っていた試行錯誤の過程も自動化することができる。これにより、本実施の形態では、解析者よりも効率的に最適なモデルを構築できるのみならず、解析者が想到することが難しいモデルをも獲得できる可能性もある。そして、実施の形態によれば、スパース推定手法のスパース性度合いの組み合わせ最適化問題についても、統計学的な手法を用いることで適宜探索範囲の中で自動的に推定することで、効果的で効率的な探索を行うことができる。 Further, in the present embodiment, it can be applied uniformly regardless of the data, and the process of trial and error, which has been conventionally performed, can be automated. As a result, in the present embodiment, not only can the optimum model be constructed more efficiently than the analyst, but also a model that is difficult for the analyst to come up with may be acquired. Then, according to the embodiment, it is effective to automatically estimate the combinatorial optimization problem of the degree of sparseness of the sparse estimation method within the search range by using the statistical method. Efficient search can be performed.

このように、本実施の形態によれば、解析者の事前知識やノウハウに基づいた範囲、または、一切の事前知識やノウハウが存在しない場合も含めて、最適なスパース推定学習モデルを自動構築しており、解析者が人手で行うよりも効率的に、最良のモデルを構築することができる。したがって、本実施の形態によれば、モデルに対し、データに適した複数のスパース推定手法の選定と複数のスパース推定手法の各適用度合いの設定とを適切に実行でき、本質的でないパラメータを削ぎ落とした、より高精度でスパースなモデルを構築できる。この結果、解析対象を適切に記述するモデルを明瞭に知ることができ、将来予測や異常検知など機械学習の様々な手法の精度向上が期待される。 As described above, according to the present embodiment, the optimum sparse estimation learning model is automatically constructed in the range based on the prior knowledge and know-how of the analyst, or even when there is no prior knowledge or know-how. Therefore, the best model can be constructed more efficiently than the analyst does manually. Therefore, according to the present embodiment, it is possible to appropriately select a plurality of sparse estimation methods suitable for the data and set the degree of application of each of the plurality of sparse estimation methods for the model, and remove non-essential parameters. You can build a more accurate and sparse model that you dropped. As a result, it is possible to clearly know the model that appropriately describes the analysis target, and it is expected that the accuracy of various machine learning methods such as future prediction and abnormality detection will be improved.

また、本実施の形態では、モデルの拡張性が高く、モデルに図3に示すスパース推定手法以外の新規のスパース推定手法を組み込むことも容易である。また、モデルに一度組み込めば、本実施の形態に係る学習方法を実行することによって、後に組み込んだスパース推定手法も含んだ最適なスパース性度合いを設定したスパースなモデルを自動構築することができる。すなわち、本実施の形態に係る学習方法は、種々様々なスパース推定手法全般に対する、統一的なモデル構築手法といえる。 Further, in the present embodiment, the model is highly expandable, and it is easy to incorporate a new sparse estimation method other than the sparse estimation method shown in FIG. 3 into the model. Further, once incorporated into the model, by executing the learning method according to the present embodiment, it is possible to automatically construct a sparse model in which the optimum degree of sparseness including the sparse estimation method incorporated later is set. That is, it can be said that the learning method according to the present embodiment is a unified model construction method for various various sparse estimation methods in general.

本実施の形態の学習方法は、解析者の事前知識やノウハウに基づいた範囲、または、一切の事前知識やノウハウが存在しない場合も含めて、最適なスパース推定学習モデルを自動構築しており、解析者が人手で行うよりも効率的に最良のモデルを構築することができる。これによって、本実施の形態によれば、本質的でないパラメータを削ぎ落とした、より高精度でスパースなモデルを構築できる。そして、本実施の形態によれば、解析対象を適切に記述する学習モデルを明瞭に知ることができ、将来予測や異常検知など機械学習の様々な手法の精度向上が期待される。 The learning method of this embodiment automatically constructs an optimum sparse estimation learning model in a range based on the prior knowledge and know-how of the analyst, or even when there is no prior knowledge or know-how. The best model can be constructed more efficiently than the analyst can do manually. Thereby, according to the present embodiment, it is possible to construct a more accurate and sparse model in which non-essential parameters are removed. Then, according to the present embodiment, it is possible to clearly know the learning model that appropriately describes the analysis target, and it is expected that the accuracy of various machine learning methods such as future prediction and abnormality detection will be improved.

[システム構成等]
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUやGPU及び当該CPUやGPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[System configuration, etc.]
Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure, and all or part of the device is functionally or physically dispersed / physically distributed in any unit according to various loads and usage conditions. Can be integrated and configured. Further, each processing function performed by each device is realized by a CPU or GPU and a program that is analyzed and executed by the CPU or GPU, or as hardware by wired logic. It can be realized.

また、本実施形態において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the present embodiment, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed. All or part of it can be done automatically by a known method. In addition, the processing procedure, control procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified.

[プログラム]
また、上記実施形態において説明した情報処理装置が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。例えば、実施形態に係る情報処理装置10が実行する処理をコンピュータが実行可能な言語で記述したプログラムを作成することもできる。この場合、コンピュータがプログラムを実行することにより、上記実施形態と同様の効果を得ることができる。さらに、かかるプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータに読み込ませて実行することにより上記実施形態と同様の処理を実現してもよい。
[program]
It is also possible to create a program in which the processing executed by the information processing apparatus described in the above embodiment is described in a language that can be executed by a computer. For example, it is possible to create a program in which the processing executed by the information processing apparatus 10 according to the embodiment is described in a language that can be executed by a computer. In this case, the same effect as that of the above embodiment can be obtained by executing the program by the computer. Further, the same processing as that of the above-described embodiment may be realized by recording the program on a computer-readable recording medium, reading the program recorded on the recording medium into the computer, and executing the program.

図9は、プログラムを実行するコンピュータを示す図である。図9に例示するように、コンピュータ1000は、例えば、メモリ1010と、CPU1020と、ハードディスクドライブインタフェース1030と、ディスクドライブインタフェース1040と、シリアルポートインタフェース1050と、ビデオアダプタ1060と、ネットワークインタフェース1070とを有し、これらの各部はバス1080によって接続される。 FIG. 9 is a diagram showing a computer that executes a program. As illustrated in FIG. 9, the computer 1000 has, for example, a memory 1010, a CPU 1020, a hard disk drive interface 1030, a disk drive interface 1040, a serial port interface 1050, a video adapter 1060, and a network interface 1070. However, each of these parts is connected by a bus 1080.

メモリ1010は、図9に例示するように、ROM(Read Only Memory)1011及びRAM1012を含む。ROM1011は、例えば、BIOS(Basic Input Output System)等のブートプログラムを記憶する。ハードディスクドライブインタフェース1030は、図9に例示するように、ハードディスクドライブ1090に接続される。ディスクドライブインタフェース1040は、図9に例示するように、ディスクドライブ1100に接続される。例えば磁気ディスクや光ディスク等の着脱可能な記憶媒体が、ディスクドライブ1100に挿入される。シリアルポートインタフェース1050は、図9に例示するように、例えばマウス1110、キーボード1120に接続される。ビデオアダプタ1060は、図9に例示するように、例えばディスプレイ1130に接続される。 The memory 1010 includes a ROM (Read Only Memory) 1011 and a RAM 1012, as illustrated in FIG. The ROM 1011 stores, for example, a boot program such as a BIOS (Basic Input Output System). The hard disk drive interface 1030 is connected to the hard disk drive 1090, as illustrated in FIG. The disk drive interface 1040 is connected to the disk drive 1100 as illustrated in FIG. For example, a removable storage medium such as a magnetic disk or an optical disk is inserted into the disk drive 1100. The serial port interface 1050 is connected to, for example, a mouse 1110 and a keyboard 1120, as illustrated in FIG. The video adapter 1060 is connected, for example, to a display 1130, as illustrated in FIG.

ここで、図9に例示するように、ハードディスクドライブ1090は、例えば、OS1091、アプリケーションプログラム1092、プログラムモジュール1093、プログラムデータ1094を記憶する。すなわち、上記の、プログラムは、コンピュータ1000によって実行される指令が記述されたプログラムモジュールとして、例えばハードディスクドライブ1090に記憶される。 Here, as illustrated in FIG. 9, the hard disk drive 1090 stores, for example, the OS 1091, the application program 1092, the program module 1093, and the program data 1094. That is, the above-mentioned program is stored in, for example, the hard disk drive 1090 as a program module in which a command executed by the computer 1000 is described.

また、上記実施形態で説明した各種データは、プログラムデータとして、例えばメモリ1010やハードディスクドライブ1090に記憶される。そして、CPU1020が、メモリ1010やハードディスクドライブ1090に記憶されたプログラムモジュール1093やプログラムデータ1094を必要に応じてRAM1012に読み出し、各種処理手順を実行する。 Further, the various data described in the above embodiment are stored as program data in, for example, a memory 1010 or a hard disk drive 1090. Then, the CPU 1020 reads the program module 1093 and the program data 1094 stored in the memory 1010 and the hard disk drive 1090 into the RAM 1012 as needed, and executes various processing procedures.

なお、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ハードディスクドライブ1090に記憶される場合に限られず、例えば着脱可能な記憶媒体に記憶され、ディスクドライブ等を介してCPU1020によって読み出されてもよい。あるいは、プログラムに係るプログラムモジュール1093やプログラムデータ1094は、ネットワーク(LAN(Local Area Network)、WAN(Wide Area Network)等)を介して接続された他のコンピュータに記憶され、ネットワークインタフェース1070を介してCPU1020によって読み出されてもよい。 The program module 1093 and program data 1094 related to the program are not limited to the case where they are stored in the hard disk drive 1090, and may be stored in, for example, a removable storage medium and read by the CPU 1020 via a disk drive or the like. .. Alternatively, the program module 1093 and the program data 1094 related to the program are stored in another computer connected via a network (LAN (Local Area Network), WAN (Wide Area Network), etc.), and are stored via the network interface 1070. It may be read by the CPU 1020.

上記の実施形態やその変形は、本願が開示する技術に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 The above-described embodiments and modifications thereof are included in the inventions described in the claims and the equivalent scope thereof, as are included in the technology disclosed in the present application.

10 情報処理装置
11 通信処理部
12 制御部
12a 取得部
12b 前処理部
12c 推定部
13 記憶部
13a データ記憶部
13b 設定情報記憶部
13c モデル記憶部
121c 設定情報受付部
122c 学習部
123c 出力部
10 Information processing device 11 Communication processing unit 12 Control unit 12a Acquisition unit 12b Preprocessing unit 12c Estimating unit 13 Storage unit 13a Data storage unit 13b Setting information storage unit 13c Model storage unit 121c Setting information reception unit 122c Learning unit 123c Output unit

Claims (6)

スパース推定手法を適用可能である複数のデータを取得する取得部と、
前記複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、前記複数のスパース推定手法の各適用度合いを学習させる学習部と、
を有することを特徴とする学習装置。
An acquisition unit that acquires multiple data to which the sparse estimation method can be applied, and
A learning unit that learns the degree of application of each of the plurality of sparse estimation methods to a model that takes the plurality of data as inputs and applies a plurality of sparse estimation methods to perform a predetermined output.
A learning device characterized by having.
前記学習部は、
前記複数のスパース推定手法の各適用度合いが設定された前記モデルに、実際の観測値と、前記複数のデータの入力に対して前記モデルが出力した予測値との誤差を用いて、入力される前記複数のデータと前記複数のデータに対する前記所定の出力との関係を学習させる第1の学習処理と、
前記学習部による一連の学習結果に基づいて前記複数のスパース推定手法の各適用度合いの確度をそれぞれ求め、各確度を基に前記モデルに適用する前記複数のスパース推定手法の各適用度合いを設定する第2の学習処理と、
を実行することを特徴とする請求項1に記載の学習装置。
The learning unit
It is input to the model in which the degree of application of each of the plurality of sparse estimation methods is set by using the error between the actual observed value and the predicted value output by the model with respect to the input of the plurality of data. A first learning process for learning the relationship between the plurality of data and the predetermined output with respect to the plurality of data, and
The accuracy of each degree of application of the plurality of sparse estimation methods is obtained based on a series of learning results by the learning unit, and each degree of application of the plurality of sparse estimation methods to be applied to the model is set based on each accuracy. The second learning process and
The learning apparatus according to claim 1, wherein the learning apparatus is performed.
前記複数のスパース推定手法は、LASSO、Elastic Net、Adaptive LASSO、Group LASSO、Fused LASSO、及び、RIDGEのいずれか二以上を含むことを特徴とする請求項1または2に記載の学習装置。 The learning apparatus according to claim 1 or 2, wherein the plurality of sparse estimation methods include any two or more of LASSO, Elastic Net, Adaptive LASSO, Group LASSO, Fused LASSO, and RIDGE. 前記Fused LASSOは、N(>1)階分まで拡張して適用されることを特徴とする請求項3に記載の学習装置。 The learning device according to claim 3, wherein the Fused LASSO is applied by extending to N (> 1) floors. スパース推定手法を適用可能である複数のデータを取得する工程と、
前記複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、前記複数のスパース推定手法の各適用度合いを学習させる工程と、
を含んだことを特徴とする学習方法。
The process of acquiring multiple data to which the sparse estimation method can be applied, and
A step of learning each degree of application of the plurality of sparse estimation methods to a model that takes the plurality of data as inputs and applies a plurality of sparse estimation methods to perform a predetermined output.
A learning method characterized by including.
スパース推定手法を適用可能である複数のデータを取得するステップと、
前記複数のデータを入力とし、複数のスパース推定手法を適用して所定の出力を行うモデルに対し、前記複数のスパース推定手法の各適用度合いを学習させるステップと、
コンピュータに実行させることを特徴とする学習プログラム。
Steps to acquire multiple data to which the sparse estimation method can be applied, and
A step of learning each degree of application of the plurality of sparse estimation methods to a model that takes the plurality of data as inputs and applies a plurality of sparse estimation methods to perform a predetermined output.
A learning program characterized by having a computer execute it.
JP2020049439A 2020-03-19 2020-03-19 Leaning device, learning method, and learning program Pending JP2021149590A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020049439A JP2021149590A (en) 2020-03-19 2020-03-19 Leaning device, learning method, and learning program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020049439A JP2021149590A (en) 2020-03-19 2020-03-19 Leaning device, learning method, and learning program

Publications (1)

Publication Number Publication Date
JP2021149590A true JP2021149590A (en) 2021-09-27

Family

ID=77848963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020049439A Pending JP2021149590A (en) 2020-03-19 2020-03-19 Leaning device, learning method, and learning program

Country Status (1)

Country Link
JP (1) JP2021149590A (en)

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
FATEMEH FAROKHMANESH, ET AL.: ""Deep Feature Selection using an Enhanced Sparse Group Lasso Algorithm"", PROCEEDINGS OF THE 27TH IRANIAN CONFERENCE ON ELECTRICAL ENGINEERING (ICEE2019), JPN6021019250, 2 May 2019 (2019-05-02), pages 1549 - 1552, ISSN: 0004513550 *
HUI ZOU, ET AL.: ""ON THE ADAPTIVE ELASTIC-NET WITH A DIVERGING NUMBER OF PARAMETERS"", ARXIV:0908.1836V1, vol. version v1, JPN6021019257, 13 August 2009 (2009-08-13), pages 1 - 20, ISSN: 0004513555 *
JARROD E. DALTON, "A MODERN STATISTICAL APPROACH TO QUALITY IMPROVEMENT IN HEALTH CARE USING QUANTILE REGRESSION", JPN6021019263, January 2013 (2013-01-01), pages 1 - 6, ISSN: 0004513559 *
JIAYU ZHOU, ET AL.: ""Modeling Disease Progression via Fused Sparse Group Lasso"", PROCEEDINGS OF THE 18TH ACM SIGKDD INTERNATIONAL CONFERENCE ON KNOWLEDGE DISCOVERY AND DATA MINING (, JPN7021001836, 16 August 2012 (2012-08-16), pages 1095 - 1103, ISSN: 0004513554 *
YANAN LIU: ""Image Classification with Group Fusion Sparse Representation"", PROCEEDINGS OF THE 2012 IEEE INTERNATIONAL CONFERENCE ON MULTIMEDIA AND EXPO, JPN6021019259, 13 July 2012 (2012-07-13), pages 568 - 573, ISSN: 0004513556 *
YUJIE ZHAO, ET AL.: ""Rapid Detection of Hot-spot by Tensor Decomposition with Application to Weekly Gonorrhea Data"", ARXIV:2001.11685V1, vol. version v1, JPN6021019255, 31 January 2020 (2020-01-31), pages 1 - 19, ISSN: 0004513553 *
内山 祐介(外2名): "「Adaptive Elastic Net回帰によるリード・ラグ効果の実証分析」", 2019年度 日本ファイナンス学会第27回大会 予稿集, JPN6021019261, 23 June 2019 (2019-06-23), JP, pages 9, ISSN: 0004513558 *
太田 優(外2名): "「Elastic netによる弾性拘束型三軸触覚センサの高精度化」", 第37回日本ロボット学会学術講演会(予稿集), JPN6021019260, 3 September 2019 (2019-09-03), pages 2, ISSN: 0004513557 *
岩崎 悠真, 「マテリアルズ・インフォマティクス」, vol. 初版, JPN6021019252, 22 July 2019 (2019-07-22), JP, pages 19 - 32, ISSN: 0004513551 *
田中 龍亮(外1名): "「確率的重み付き最小二乗法に基づく指向性制御」", 電子情報通信学会技術研究報告, vol. 116, no. 420, JPN6021019253, 18 January 2017 (2017-01-18), JP, pages 13 - 18, ISSN: 0004513552 *
竹内 孝(外2名): "「高階結合正則化による時空間変化パターン検出」", 第100回人工知能基本問題研究会資料(SIG-FPAI-B503), JPN6021019265, 25 March 2016 (2016-03-25), JP, pages 47 - 52, ISSN: 0004513560 *
金森 敬文, 「Rによる機械学習入門」, vol. 第1版, JPN6021019248, 20 November 2017 (2017-11-20), JP, pages 215 - 230, ISSN: 0004513549 *

Similar Documents

Publication Publication Date Title
US11216741B2 (en) Analysis apparatus, analysis method, and non-transitory computer readable medium
US11264121B2 (en) Real-time industrial plant production prediction and operation optimization
Ringsquandl et al. Semantic-guided feature selection for industrial automation systems
JP6529096B2 (en) Simulation system, simulation method and program for simulation
CN111179591A (en) Road network traffic time sequence characteristic data quality diagnosis and restoration method
CN108984851B (en) Weighted Gaussian model soft measurement modeling method with time delay estimation
CN114861522A (en) Precision manufacturing quality monitoring method and device based on artificial intelligence meta-learning technology
Mertens et al. An intelligent control chart for monitoring of autocorrelated egg production process data based on a synergistic control strategy
CN111930728B (en) Method and system for predicting characteristic parameters and failure rate of equipment
JP7396847B2 (en) Learning devices, learning methods and learning programs
CN111524023A (en) Greenhouse adjusting method and system
JP2021149590A (en) Leaning device, learning method, and learning program
US20210232941A1 (en) Method, system, and computer program product for determining causality
JP6398991B2 (en) Model estimation apparatus, method and program
Kakde et al. A non-parametric control chart for high frequency multivariate data
CN114580151A (en) Water demand prediction method based on gray linear regression-Markov chain model
CN113032458A (en) Method and device for determining abnormality of spacecraft
US20240037423A1 (en) Information processing apparatus, information processing method, and information processing program
CN113052938A (en) Method and device for constructing boiler energy efficiency curve
JP6871352B1 (en) Learning equipment, learning methods and learning programs
CN117131465B (en) Single-pipe tower damage identification method and device, electronic equipment and readable storage medium
JP6995100B2 (en) Information processing equipment, calculation method and calculation program
JP7135025B2 (en) Information processing device, information processing method and program
JP2020166442A (en) Information processing apparatus, calculation method, and calculation program
US20220101137A1 (en) Learning device, extraction device, learning method, extraction method, learning program, and extraction program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210702

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220104