JP2021135775A - Learning method of field prediction device - Google Patents
Learning method of field prediction device Download PDFInfo
- Publication number
- JP2021135775A JP2021135775A JP2020031842A JP2020031842A JP2021135775A JP 2021135775 A JP2021135775 A JP 2021135775A JP 2020031842 A JP2020031842 A JP 2020031842A JP 2020031842 A JP2020031842 A JP 2020031842A JP 2021135775 A JP2021135775 A JP 2021135775A
- Authority
- JP
- Japan
- Prior art keywords
- learning
- prediction
- encoder
- data
- decoder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing And Monitoring For Control Systems (AREA)
- Control Of Ac Motors In General (AREA)
Abstract
Description
本発明は、場予測装置の学習方法に関する。より詳しくは、エネルギ源から供給されるエネルギが伝達する構造物の内部における場の量をニューラルネットワークによって予測する場予測装置の学習方法に関する。 The present invention relates to a learning method of a field prediction device. More specifically, the present invention relates to a learning method of a field predictor that predicts the amount of field inside a structure transmitted by energy supplied from an energy source by a neural network.
ある構造物の内部においてエネルギ源(例えば、熱源や電流等)によって形成される場(例えば、温度や磁場等)の量を解析する技術の一つとして、有限要素法(以下、「FEM(Finite Element Method)」との略称を用いる)に基づく数値解析方法が広く用いられている。一般的にFEMに基づく数値解析方法は、節点数が多くなるほど計算量も増加するため、大型の計算サーバや高性能なワークステーションを必要とする。またFEMに基づく数値解析を行うためには、ソフトウェアの知識やモデリング技術も必要とされる。また1ショットにかかる計算時間も膨大であるため、エネルギ源の条件を僅かに変更して再計算を行うだけでも膨大な時間がかかる。 As one of the techniques for analyzing the amount of the field (for example, temperature, magnetic field, etc.) formed by the energy source (for example, heat source, electric current, etc.) inside a certain structure, the finite element method (hereinafter, "FEM (Finite)") A numerical analysis method based on (using the abbreviation "Element Method") "is widely used. In general, the FEM-based numerical analysis method requires a large calculation server and a high-performance workstation because the amount of calculation increases as the number of nodes increases. In addition, software knowledge and modeling technology are also required to perform numerical analysis based on FEM. Moreover, since the calculation time required for one shot is enormous, it takes an enormous amount of time even if the energy source conditions are slightly changed and recalculation is performed.
本願出願人による特許文献1には、熱源から供給される熱が伝達する構造物に定められた予測エリア内の温度分布を、エンコーダとデコーダとを組み合わせて構築された予測モデルによって予測する状態予測装置とその学習方法に関する発明が示されている。特許文献1に示された発明では、熱源位置及び熱源温度等の熱源の条件に関する正解ラベルデータと、この熱源の条件の下でシミュレーションを行うことによって算出される温度分布に関する分布データと、この分布データのうち予め定められた複数の計測点における温度値である計測データと、を含むサンプルデータを用いて予測モデルの学習を行うことにより、FEMに基づく演算を経ることなく構造物の内部における温度分布の予測を可能としている。 Patent Document 1 by the applicant of the present application describes a state prediction in which a temperature distribution in a prediction area defined in a structure to which heat supplied from a heat source is transferred is predicted by a prediction model constructed by combining an encoder and a decoder. Inventions relating to the device and its learning method are shown. In the invention shown in Patent Document 1, correct label data regarding heat source conditions such as heat source position and heat source temperature, distribution data regarding temperature distribution calculated by performing simulation under the conditions of this heat source, and this distribution. By training the prediction model using the measurement data, which is the temperature value at a plurality of predetermined measurement points, and the sample data including the data, the temperature inside the structure without undergoing the calculation based on FEM. It makes it possible to predict the distribution.
ところで特許文献1に示された状態予測装置は、インバータやモータ等の構造物の内部には温度センサを設けることができないことに鑑みてなされた発明である。このため特許文献1の予測モデルは、センサによって直接検出可能な上述の複数の計測点における構造物の温度値を入力とし、構造物の内部における熱源位置及び熱源温度や構造物の内部における温度分布を出力するように、サンプルデータを用いて学習される。したがって特許文献1では、エネルギ源の状態等を入力とし、このエネルギ源によって構造物の内部に形成される場の予測量を出力とする予測モデルの学習方法については、十分に検討されていない。 By the way, the state prediction device shown in Patent Document 1 is an invention made in view of the fact that a temperature sensor cannot be provided inside a structure such as an inverter or a motor. Therefore, the prediction model of Patent Document 1 uses the temperature values of the structure at the above-mentioned plurality of measurement points that can be directly detected by the sensor as inputs, and the heat source position and heat source temperature inside the structure and the temperature distribution inside the structure. Is trained using sample data so as to output. Therefore, in Patent Document 1, a method of learning a prediction model in which the state of the energy source and the like are input and the predicted amount of the field formed inside the structure by the energy source is output is not sufficiently studied.
本発明は、構造物の内部における場の量をニューラルネットワークによって構築される予測モデルで予測する場予測装置の学習方法を提供することを目的とする。 An object of the present invention is to provide a learning method of a field prediction device that predicts the amount of field inside a structure by a prediction model constructed by a neural network.
(1)本発明に係る学習方法は、エネルギ源から供給されるエネルギが伝達する構造物の内部における場の量をニューラルネットワークによって構築される予測モデルで予測する場予測装置をコンピュータによって学習する方法であって、前記予測モデルは、前記エネルギ源の状態に関する情報を含む入力データが入力されると特徴量を出力する予測エンコーダと、前記特徴量が入力されると前記構造物の内部における場の予測量に関する情報を含む出力データを出力する予測デコーダと、を備え、複数組の異なる入力データの下でシミュレーションを行うことにより前記構造物の内部における場の予測量を算出し、複数組の学習データを生成する工程と、前記入力データと前記学習データとを関連付けて保存する工程と、第1学習エンコーダ及び第1学習デコーダを備えるオートエンコーダを準備し、前記第1学習エンコーダに前記学習データを入力した場合に前記第1学習デコーダから出力される出力データと前記学習データとの差が所定値以下になるまで前記第1学習エンコーダ及び前記第1学習デコーダを学習する工程と、学習済みの前記第1学習デコーダに基づいて前記予測デコーダを構築する工程と、を備えることを特徴とする。 (1) The learning method according to the present invention is a method in which a computer learns a field prediction device that predicts the amount of field inside a structure transmitted by energy supplied from an energy source by a prediction model constructed by a neural network. The prediction model is a prediction encoder that outputs a feature amount when input data including information about the state of the energy source is input, and a field inside the structure when the feature amount is input. It is equipped with a prediction decoder that outputs output data including information about the predicted amount, and calculates the predicted amount of the field inside the structure by performing simulation under a plurality of sets of different input data, and learns a plurality of sets. A step of generating data, a step of associating and storing the input data with the learning data, and an auto encoder including a first learning encoder and a first learning decoder are prepared, and the learning data is stored in the first learning encoder. The step of learning the first learning encoder and the first learning decoder until the difference between the output data output from the first learning decoder and the learning data at the time of input becomes a predetermined value or less, and the learned said. It is characterized by including a step of constructing the predictive decoder based on the first learning decoder.
(2)この場合、前記入力データと、当該入力データと関連付けられた前記学習データと、当該学習データを学習済みの前記第1学習エンコーダに入力した場合に当該第1学習エンコーダから出力される第1特徴量と、を関連付けて保存する工程と、第2学習エンコーダを準備し、当該第2学習エンコーダに前記入力データを入力した場合に当該第2学習エンコーダから出力される第2特徴量と前記入力データと関連付けられた前記第1特徴量との差が所定値以下になるまで前記第2学習エンコーダを学習する工程と、学習済みの前記第2学習エンコーダに基づいて前記予測エンコーダを構築する工程と、を備えることが好ましい。 (2) In this case, when the input data, the training data associated with the input data, and the training data are input to the trained first learning encoder, the first training encoder outputs the data. A step of associating and saving one feature amount, a second learning encoder is prepared, and when the input data is input to the second learning encoder, the second feature amount output from the second learning encoder and the above A step of learning the second learning encoder until the difference between the input data and the first feature amount associated with the input data becomes a predetermined value or less, and a step of constructing the prediction encoder based on the learned second learning encoder. And, it is preferable to provide.
(3)この場合、学習済みの前記第2学習エンコーダを前記予測エンコーダとし、学習済みの前記第1学習デコーダを前記予測デコーダとし、前記予測エンコーダ及び前記予測デコーダを組み合わせることによって前記予測モデルを構築する工程と、前記予測エンコーダに前記入力データを入力した場合に前記予測デコーダから出力される出力データと前記入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記予測エンコーダに対しては重みを凍結しないファインチューニング学習を行うとともに前記予測デコーダに対しては重みを凍結した転移学習を行うことが好ましい。 (3) In this case, the trained second learning encoder is used as the prediction encoder, the trained first learning encoder is used as the prediction decoder, and the prediction encoder and the prediction decoder are combined to construct the prediction model. The prediction encoder until the difference between the output data output from the prediction decoder and the training data associated with the input data when the input data is input to the prediction encoder becomes equal to or less than a predetermined value. It is preferable to perform fine tuning learning that does not freeze the weights for the prediction decoder and transfer learning that freezes the weights for the prediction decoder.
(4)この場合、学習済みの前記第1学習デコーダを前記予測デコーダとし、当該予測デコーダと前記予測エンコーダとを組み合わせることによって前記予測モデルを構築する工程と、前記予測エンコーダに前記入力データを入力した場合に前記予測デコーダから出力される出力データと前記入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記予測エンコーダに対しては重みを凍結せずに学習を行うとともに前記予測デコーダに対しては重みを凍結した転移学習を行うことが好ましい。 (4) In this case, the trained first learning decoder is used as the prediction decoder, and the step of constructing the prediction model by combining the prediction decoder and the prediction encoder and the input data to the prediction encoder are input. In this case, the prediction encoder is trained without freezing the weight until the difference between the output data output from the prediction decoder and the training data associated with the input data becomes equal to or less than a predetermined value. At the same time, it is preferable to perform transfer learning in which the weight is frozen for the prediction decoder.
(5)本発明に係る学習方法は、エネルギ源から供給されるエネルギが伝達する構造物の内部における場の量をニューラルネットワークによって構築される予測モデルで予測する場予測装置をコンピュータによって学習する方法であって、前記予測モデルは、前記エネルギ源の状態に関する情報を含む第1入力データが入力されると第1特徴量を出力する第1予測エンコーダと、前記第1特徴量が入力されると前記構造物の内部における場の予測量に関する情報を含む第1出力データを出力する第1予測デコーダと、前記第1入力データに基づいて生成される第2入力データが入力されると第2特徴量を出力する第2予測エンコーダと、前記第2特徴量が入力されると前記構造物の内部における場の予測量に関する情報を含む第2出力データを出力する第2予測デコーダと、前記第1出力データと前記第2出力データとを合成する合成部と、を備え、複数組の異なる前記第1入力データの下でシミュレーションを行うことによって前記構造物の内部における場の予測量を算出し、複数の学習データを生成する工程と、前記第1入力データと前記学習データとを関連付けて保存する工程と、第1学習エンコーダ及び第1学習デコーダを備えるオートエンコーダを準備し、前記第1学習エンコーダに前記学習データを入力した場合に前記第1学習デコーダから出力される出力データと前記学習データとの差が所定値以下になるまで前記第1学習エンコーダ及び前記第1学習デコーダを学習する工程と、学習済みの前記第1学習デコーダに基づいて前記第1予測デコーダを構築する工程と、を備えることを特徴とする。 (5) The learning method according to the present invention is a method in which a computer learns a field prediction device that predicts the amount of field inside a structure transmitted by energy supplied from an energy source by a prediction model constructed by a neural network. In the prediction model, the first prediction encoder that outputs the first feature amount when the first input data including the information about the state of the energy source is input, and the first feature amount are input. A first predictive decoder that outputs first output data including information on the predicted amount of field inside the structure, and a second feature when the second input data generated based on the first input data is input. A second prediction encoder that outputs an amount, a second prediction decoder that outputs second output data including information on a field prediction amount inside the structure when the second feature amount is input, and the first prediction decoder. A compositing unit that synthesizes the output data and the second output data is provided, and the predicted amount of the field inside the structure is calculated by performing simulation under a plurality of sets of different first input data. A step of generating a plurality of training data, a step of associating and storing the first input data and the learning data, and an auto encoder including a first learning encoder and a first learning decoder are prepared, and the first learning encoder is prepared. The step of learning the first learning encoder and the first learning decoder until the difference between the output data output from the first learning decoder and the learning data becomes equal to or less than a predetermined value when the learning data is input to. It is characterized by comprising a step of constructing the first predictive decoder based on the trained first learning decoder.
(6)この場合、前記第1入力データと、当該第1入力データと関連付けられた前記学習データと、当該学習データを学習済みの前記第1学習エンコーダに入力した場合に当該第1学習エンコーダから出力される第1特徴量と、を関連付けて保存する工程と、第2学習エンコーダを準備し、当該第2学習エンコーダに前記第1入力データを入力した場合に当該第2学習エンコーダから出力される出力データと前記第1入力データと関連付けられた前記第1特徴量との差が所定値以下になるまで前記第2学習エンコーダを学習する工程と、学習済みの前記第2学習エンコーダに基づいて前記第1予測エンコーダを構築する工程と、を備えることが好ましい。 (6) In this case, when the first input data, the learning data associated with the first input data, and the learning data are input to the trained first learning encoder, the first learning encoder is used. When the process of associating and saving the output first feature amount and the second learning encoder are prepared and the first input data is input to the second learning encoder, the second learning encoder outputs the data. Based on the step of learning the second learning encoder until the difference between the output data and the first feature amount associated with the first input data becomes equal to or less than a predetermined value, and the learned second learning encoder. It is preferable to include a step of constructing the first predictive encoder.
(7)この場合、学習済みの前記第2学習エンコーダと学習済みの前記第1学習デコーダとを組み合わせることによって第1予測モデルを構築する工程と、前記第1予測モデルの前記第2学習エンコーダに前記第1入力データを入力した場合に前記第1学習デコーダから出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第2学習エンコーダに対しては重みを凍結しないファインチューニング学習を行うとともに前記第1学習デコーダに対しては重みを凍結した転移学習を行う工程と、ファインチューニング学習後の前記第2学習エンコーダを前記第1予測エンコーダとし、転移学習後の前記第1学習デコーダを前記第1予測デコーダとし、これら前記第1予測エンコーダ及び前記第1予測デコーダと、前記第2予測エンコーダと、前記第2予測デコーダと、前記合成部と、を組み合わせることによって前記予測モデルを構築する工程と、前記第1予測エンコーダに前記第1入力データを入力しかつ前記第2予測エンコーダに前記第1入力データに基づいて生成される前記第2入力データを入力した場合に前記合成部から出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第1予測エンコーダ及び前記第1予測デコーダに対しては重みを凍結した転移学習を行い、前記第2予測エンコーダ及び前記第2予測デコーダに対しては重みを凍結せずに学習を行う工程と、を備えることが好ましい。 (7) In this case, the step of constructing the first prediction model by combining the trained second learning encoder and the trained first learning decoder, and the second learning encoder of the first prediction model The second learning encoder until the difference between the output data output from the first learning decoder and the learning data associated with the first input data when the first input data is input becomes equal to or less than a predetermined value. The fine tuning learning that does not freeze the weights is performed for the first learning decoder, and the transfer learning that freezes the weights is performed for the first learning decoder. The second learning encoder after the fine tuning learning is used as the first prediction encoder. The first learning decoder after transfer learning is used as the first prediction decoder, and the first prediction encoder, the first prediction decoder, the second prediction encoder, the second prediction decoder, and the synthesis unit are used. The second step of constructing the prediction model by combining the above and the second, which inputs the first input data to the first prediction encoder and is generated based on the first input data to the second prediction encoder. The first prediction encoder and the first prediction until the difference between the output data output from the synthesis unit and the training data associated with the first input data when the input data is input becomes equal to or less than a predetermined value. It is preferable that the decoder is provided with a transfer learning in which the weights are frozen, and the second prediction encoder and the second prediction decoder are provided with a step of learning without freezing the weights.
(8)この場合、前記第1予測エンコーダと学習済みの前記第1学習デコーダとを組み合わせることによって第1予測モデルを構築する工程と、前記第1予測エンコーダに前記第1入力データを入力した場合に前記第1学習デコーダから出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第1予測エンコーダに対しては重みを凍結せずに学習を行うとともに前記第1学習デコーダに対しては重みを凍結した転移学習を行う工程と、転移学習後の前記第1学習デコーダを前記第1予測デコーダとし、当該第1予測デコーダと、学習済みの前記第1予測エンコーダと、前記第2予測エンコーダと、前記第2予測デコーダと、前記合成部と、を組み合わせることによって前記予測モデルを構築する工程と、前記第1予測エンコーダに前記第1入力データを入力しかつ前記第2予測エンコーダに前記第1入力データに基づいて生成される前記第2入力データを入力した場合に前記合成部から出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第1予測エンコーダ及び前記第1予測デコーダに対しては重みを凍結した転移学習を行い、前記第2予測エンコーダ及び前記第2予測デコーダに対しては重みを凍結せずに学習を行う工程と、を備えることが好ましい。 (8) In this case, a step of constructing a first prediction model by combining the first prediction encoder and the trained first learning decoder, and a case where the first input data is input to the first prediction encoder. Until the difference between the output data output from the first learning decoder and the training data associated with the first input data becomes equal to or less than a predetermined value, the weights are not frozen for the first prediction encoder. A step of performing transfer learning with weights frozen for the first learning decoder, and using the first learning decoder after transfer learning as the first predictive decoder and learning with the first predictive decoder. A step of constructing the prediction model by combining the completed first prediction encoder, the second prediction encoder, the second prediction decoder, and the synthesis unit, and the first prediction encoder in the first prediction encoder. When the input data is input and the second input data generated based on the first input data is input to the second prediction encoder, the output data output from the synthesis unit is associated with the first input data. Until the difference from the learned data becomes equal to or less than a predetermined value, the first prediction encoder and the first prediction decoder are subjected to weight-frozen transfer learning, and the second prediction encoder and the second prediction are performed. It is preferable that the decoder is provided with a step of learning without freezing the weights.
(1)場予測装置は、ニューラルネットワークによって構築される予測モデルによって、エネルギ源から供給されるエネルギが伝達する構造物の内部における場の量を予測する。またこの予測モデルは、エネルギ源の状態に関する情報を含む入力データが入力されると特徴量を出力する予測エンコーダと、この特徴量が入力されると構造物の内部における場の予測量に関する情報を含む出力データを出力する予測デコーダと、を備える。本発明に係る学習方法は、シミュレーションを行うことによって構造物の内部における場の予測量を算出し、複数組の学習データを生成する工程と、入力データと学習データとを関連付けて保存する工程と、予め準備したオートエンコーダの第1学習エンコーダに学習データを入力した場合に第1学習デコーダから出力される出力データと学習データとの差が所定値以下になるまで第1学習エンコーダ及び第1学習デコーダを学習する工程と、学習済みの第1学習デコーダに基づいて、上記予測モデルにおける予測デコーダを構築する工程と、を備える。換言すれば、本発明の学習方法では、シミュレーションによって生成された学習データを用いてオートエンコーダの学習を行い、この学習済みのオートエンコーダの一部である第1学習デコーダを予測デコーダとして転用することにより、適切な出力データが得られるような予測モデルを構築することができる。 (1) The field prediction device predicts the amount of field inside a structure to which energy supplied from an energy source is transmitted by a prediction model constructed by a neural network. In addition, this prediction model provides a prediction encoder that outputs a feature amount when input data including information on the state of the energy source is input, and information on a field prediction amount inside the structure when this feature amount is input. It includes a predictive decoder that outputs the including output data. The learning method according to the present invention includes a step of calculating a predicted amount of a field inside a structure by performing a simulation to generate a plurality of sets of learning data, and a step of associating and storing input data and learning data. , The first learning encoder and the first learning until the difference between the output data output from the first learning decoder and the learning data becomes less than a predetermined value when the learning data is input to the first learning encoder of the auto encoder prepared in advance. It includes a step of learning a decoder and a step of constructing a predictive decoder in the prediction model based on the trained first learning decoder. In other words, in the learning method of the present invention, the autoencoder is trained using the learning data generated by the simulation, and the first learning decoder, which is a part of the trained autoencoder, is diverted as the prediction decoder. Therefore, it is possible to construct a prediction model that can obtain appropriate output data.
(2)本発明に係る学習方法は、入力データと、学習データと、この学習データを学習済みの第1学習エンコーダに入力した場合にこの第1学習エンコーダから出力される第1特徴量と、を関連付けて保存する工程と、未学習の第2学習エンコーダに入力データ入力した場合にこの第2学習エンコーダから出力される第2特徴量と入力データと関連付けられた第1特徴量との差が所定値以下になるまで第2学習エンコーダを学習する工程と、この学習済みの第2学習エンコーダに基づいて、上記予測モデルにおける予測エンコーダを構築する工程と、を備える。換言すれば、本発明の学習方法では、入力データを入力した場合に、上述の学習済みのオートエンコーダの第1学習エンコーダと似た出力が得られるように第2学習エンコーダを学習し、この第2学習エンコーダを予測エンコーダとして転用することにより、入力データに対し適切な出力データが得られるような予測モデルを構築することができる。 (2) The learning method according to the present invention includes input data, learning data, a first feature quantity output from the first learning encoder when the learning data is input to the trained first learning encoder, and the like. The difference between the process of associating and saving the data and the second feature amount output from the second learning encoder when the input data is input to the unlearned second learning encoder and the first feature amount associated with the input data. It includes a step of learning the second learning encoder until the value becomes equal to or less than a predetermined value, and a step of constructing a prediction encoder in the prediction model based on the learned second learning encoder. In other words, in the learning method of the present invention, when input data is input, the second learning encoder is trained so that an output similar to the first learning encoder of the above-mentioned trained autoencoder can be obtained. By diverting the 2 learning encoder as a prediction encoder, it is possible to construct a prediction model that can obtain appropriate output data for the input data.
(3)本発明に係る学習方法は、学習済みの第2学習エンコーダを予測エンコーダとし、学習済みの第1学習デコーダを予測デコーダとし、これらを組み合わせることによって予測モデルを構築する工程と、予測エンコーダに入力データを入力した場合に予測デコーダから出力される出力データと学習データとの差が所定値以下になるまで、予測エンコーダに対しては重みを凍結したファインチューニング学習を行うとともに予測デコーダに対しては重みを凍結した転移学習を行う工程と、を備える。これにより、入力データに対し、さらに適切な出力データが得られるような予測モデルを構築することができる。 (3) The learning method according to the present invention includes a step of constructing a prediction model by using a trained second learning encoder as a prediction encoder and a trained first learning decoder as a prediction decoder, and combining these with a prediction encoder. Until the difference between the output data output from the prediction decoder and the training data becomes less than a predetermined value when the input data is input to, the prediction encoder is subjected to fine tuning learning with the weights frozen, and the prediction decoder is subjected to fine tuning learning. It also includes a step of performing transfer learning in which weights are frozen. As a result, it is possible to construct a prediction model that can obtain more appropriate output data for the input data.
(4)本発明に係る学習方法は、学習済みの第1学習デコーダを予測デコーダとし、この予測デコーダと未学習の予測エンコーダとを組み合わせることによって予測モデルを構築する工程と、予測エンコーダに入力データを入力した場合に予測デコーダから出力される出力データと学習データとの差が所定値以下になるまで、予測エンコーダに対しては重みを凍結せずに学習を行うとともに予測デコーダに対しては重みを凍結した転移学習を行う工程と、を備える。これにより、入力データに対し、適切な出力データが得られるような予測モデルを構築することができる。なお上記(2)及び(3)に係る発明と比較した場合、学習にかかる時間は長くなる場合があるものの、入力データと学習データと特徴量とを関連付けて保存する必要が無いので、その分必要な記憶領域を小さくできる。 (4) In the learning method according to the present invention, a trained first learning decoder is used as a prediction decoder, and a step of constructing a prediction model by combining this prediction decoder with an unlearned prediction encoder and data input to the prediction encoder. Until the difference between the output data output from the prediction decoder and the training data becomes less than a predetermined value when is input, the prediction encoder is trained without freezing the weights, and the prediction decoder is weighted. It is provided with a step of performing transfer learning in which the data is frozen. As a result, it is possible to construct a prediction model that can obtain appropriate output data for the input data. Compared with the inventions according to (2) and (3) above, the learning time may be longer, but it is not necessary to associate the input data, the learning data, and the feature amount with each other and save them. The required storage area can be reduced.
(5)場予測装置の予測モデルは、第1予測エンコーダ及び第1予測デコーダを組み合わせた第1チャネルと、第2予測エンコーダ及び第2予測デコーダを組み合わせた第2チャネルと、これら第1チャネル及び第2チャネルの出力を合成する合成部と、を備える。本発明に係る学習方法は、第1チャネルに対する第1入力データの下でシミュレーションを行うことによって構造物の内部における場の予測量を算出し、複数組の学習データを生成する工程と、これら第1入力データと学習データとを関連付けて保存する工程と、予め準備したオートエンコーダの第1学習エンコーダに学習データを入力した場合に第1学習デコーダから出力される出力データと学習データとの差が所定値以下になるまで第1学習エンコーダ及び第1学習デコーダを学習する工程と、学習済みの第1学習デコーダに基づいて、上記予測モデルにおける第1予測デコーダを構築する工程と、を備える。換言すれば、本発明の学習方法では、シミュレーションによって生成された学習データを用いてオートエンコーダの学習を行い、この学習済みのオートエンコーダの一部である第1学習デコーダを第1チャネルの第1予測デコーダとして転用することにより、適切な出力データが得られるような予測モデルを構築することができる。 (5) The prediction model of the field prediction device includes a first channel in which the first prediction encoder and the first prediction decoder are combined, a second channel in which the second prediction encoder and the second prediction decoder are combined, these first channels, and the like. It includes a compositing unit that synthesizes the output of the second channel. The learning method according to the present invention includes a step of calculating a predicted amount of a field inside a structure by performing a simulation under the first input data for the first channel and generating a plurality of sets of learning data, and these first. 1 The difference between the process of associating and saving the input data and the learning data and the output data and the learning data output from the first learning decoder when the learning data is input to the first learning encoder of the auto encoder prepared in advance. It includes a step of learning the first learning encoder and the first learning decoder until the value becomes equal to or less than a predetermined value, and a step of constructing the first prediction decoder in the prediction model based on the learned first learning decoder. In other words, in the learning method of the present invention, the auto-encoder is trained using the learning data generated by the simulation, and the first learning decoder, which is a part of the trained auto-encoder, is used as the first channel of the first channel. By diverting it as a prediction decoder, it is possible to build a prediction model that can obtain appropriate output data.
(6)本発明に係る学習方法は、第1入力データと、学習データと、この学習データを学習済みの第1学習エンコーダに入力した場合にこの第1学習エンコーダから出力される第1特徴量と、を関連付けて保存する工程と、未学習の第2学習エンコーダに第1入力データを入力した場合にこの第2学習エンコーダから出力される第2特徴量と上記第1特徴量との差が所定値以下になるまで第2学習エンコーダを学習する工程と、この学習済みの第2学習エンコーダに基づいて、上記予測モデルにおける第1予測エンコーダを構築する工程と、を備える。換言すれば、本発明の学習方法では、第1入力データを入力した場合に、上述の学習済みのオートエンコーダの第1学習エンコーダと似た出力が得られるように第2学習エンコーダを学習し、この第2学習エンコーダを第1チャネルの第1予測エンコーダとして転用することにより、第1入力データに対し適切な出力データが得られるような予測モデルを構築することができる。 (6) The learning method according to the present invention is a first input data, a learning data, and a first feature amount output from the first learning encoder when the learning data is input to the trained first learning encoder. And the step of associating and saving, and the difference between the second feature amount output from the second learning encoder and the first feature amount when the first input data is input to the unlearned second learning encoder. It includes a step of learning the second learning encoder until the value becomes equal to or less than a predetermined value, and a step of constructing the first prediction encoder in the prediction model based on the learned second learning encoder. In other words, in the learning method of the present invention, when the first input data is input, the second learning encoder is trained so that an output similar to the first learning encoder of the above-described trained auto encoder can be obtained. By diverting this second learning encoder as the first prediction encoder of the first channel, it is possible to construct a prediction model that can obtain appropriate output data for the first input data.
(7)本発明に係る学習方法は、学習済みの第2学習エンコーダと第1学習デコーダとを組み合わせることによって第1予測モデルを構築する工程と、第1予測モデルの第2学習エンコーダに第1入力データを入力した場合に第1学習デコーダから出力される出力データと学習データとの差が所定値以下になるまで、第2学習エンコーダに対しては重みを凍結しないファインチューニング学習を行うとともに第1学習デコーダに対しては重みを凍結した転移学習を行う工程と、学習済みの第2学習エンコーダを第1予測エンコーダとし、学習済みの第1学習デコーダを第1予測デコーダとし、これら第1予測エンコーダ及び第1予測デコーダと、未学習の第2予測エンコーダ及び第2予測デコーダと、合成部と、を組み合わせることによって予測モデルを構築する工程と、第1予測エンコーダに第1入力データを入力しかつ第2予測エンコーダに第2入力データを入力した場合に合成部から出力される出力データと学習データとの差が所定値以下になるまで、第1予測エンコーダ及び第1予測デコーダに対しては重みを凍結した転移学習を行い、第2予測エンコーダ及び第2予測デコーダに対しては重みを凍結せずに学習を行う工程と、を備える。これにより、第1入力データ及びこの第1入力データに基づいて生成される第2入力データに対し、適切な出力データが得られるような予測モデルを構築することができる。 (7) The learning method according to the present invention includes a step of constructing a first prediction model by combining a learned second learning encoder and a first learning decoder, and a first for the second learning encoder of the first prediction model. Until the difference between the output data output from the first learning decoder and the learning data becomes less than a predetermined value when the input data is input, the second learning encoder is subjected to fine tuning learning without freezing the weights, and the first For the 1 learning decoder, the process of performing transfer learning in which the weight is frozen, the learned second learning encoder is used as the first prediction encoder, the learned first learning encoder is used as the first prediction decoder, and these first predictions are made. The process of constructing a prediction model by combining the encoder and the first prediction decoder, the unlearned second prediction encoder and the second prediction decoder, and the compositing unit, and inputting the first input data to the first prediction encoder. In addition, until the difference between the output data output from the synthesizer and the training data when the second input data is input to the second prediction encoder becomes equal to or less than a predetermined value, the first prediction encoder and the first prediction decoder are used. The second prediction encoder and the second prediction decoder are provided with a step of performing transfer learning in which the weights are frozen and learning without freezing the weights for the second prediction encoder and the second prediction decoder. As a result, it is possible to construct a prediction model that can obtain appropriate output data for the first input data and the second input data generated based on the first input data.
(8)本発明に係る学習方法は、未学習の第1予測エンコーダと学習済みの第1学習デコーダとを組み合わせることによって第1予測モデルを構築する工程と、
(4)本発明に係る学習方法は、学習済みの第1学習デコーダを予測デコーダとし、この予測デコーダと未学習の予測エンコーダとを組み合わせることによって予測モデルを構築する工程と、予測エンコーダに入力データを入力した場合に予測デコーダから出力される出力データと学習データとの差が所定値以下になるまで、予測エンコーダに対しては重みを凍結せずに学習を行うとともに予測デコーダに対しては重みを凍結した転移学習を行う工程と、を備える。これにより、入力データに対し、適切な出力データが得られるような予測モデルを構築することができる。なお上記(2)及び(3)に係る発明と比較した場合、学習にかかる時間は長くなる場合があるものの、入力データと学習データと特徴量とを関連付けて保存する必要が無いので、その分必要な記憶領域を小さくできる。
(8) The learning method according to the present invention includes a step of constructing a first prediction model by combining an unlearned first prediction encoder and a learned first learning decoder.
(4) In the learning method according to the present invention, a trained first learning decoder is used as a prediction decoder, and a step of constructing a prediction model by combining this prediction decoder with an unlearned prediction encoder and data input to the prediction encoder. Until the difference between the output data output from the prediction decoder and the training data becomes less than a predetermined value when is input, the prediction encoder is trained without freezing the weights, and the prediction decoder is weighted. It is provided with a step of performing transfer learning in which the data is frozen. As a result, it is possible to construct a prediction model that can obtain appropriate output data for the input data. Compared with the inventions according to (2) and (3) above, the learning time may be longer, but it is not necessary to associate the input data, the learning data, and the feature amount with each other and save them. The required storage area can be reduced.
<第1実施形態>
以下、本発明の第1実施形態に係る回転電機2の場予測装置6、この場予測装置6が適用された回転電機制御システム1、及び場予測装置6の学習方法について、図面を参照しながら詳細に説明する。
<First Embodiment>
Hereinafter, the learning method of the
図1は、本実施形態に係る回転電機制御システム1の構成を示す図である。
回転電機制御システム1は、回転電機2と、電流センサ3と、回転検出器4と、制御装置5と、場予測装置6と、を備える。
FIG. 1 is a diagram showing a configuration of a rotary electric machine control system 1 according to the present embodiment.
The rotary electric machine control system 1 includes a rotary
回転電機2は、三相交流電流が流れるとその電源周波数に応じた回転磁場を生成する固定子と、この固定子によって生成される回転磁場によって回転する回転子と、を備える。本実施形態では、回転電機2として、回転子に永久磁石が埋め込まれた永久磁石型同期電動機(IPMSM)を用いた場合について説明するが、本発明はこれに限らない。回転電機2は、上述のような固定子及び回転子を備えるものであればどのようなものであってもよい。
The rotary
電流センサ3は、回転電機2を流れる三相交流電流Ia,Ib,Icを検出し、これら三相交流電流に応じた検出信号を制御装置5へ送信する。
The
回転検出器4は、回転電機2の回転子の位置に応じた信号を制御装置5へ送信する。以下では、回転検出器4として、回転電機2の回転子の所定の基準位置からの絶対位置に相当する機械角を検出し、この機械角に応じた検出信号を制御装置5へ送信するアブソリュートエンコーダを用いた場合について説明するが、本発明はこれに限らない。
The
回転検出器4としては、例えば回転子が回転するとその回転変位量に応じたパルス信号を発生し、このパルス信号を制御装置5へ送信するインクリメンタルエンコーダを用いてもよい。この場合、回転電機2の機械角は、インクリメンタルエンコーダからのパルス信号に基づく制御装置5における演算によって算出することができる。
As the
また制御装置5としてエンコーダを用いない所謂センサレス制御によって回転電機2の制御を行うことが可能なものを用いる場合、回転電機2の機械角は、この制御装置5における演算によって算出することができる。またこの場合、回転検出器4は不要となる。
Further, when a
以上より、本実施形態において回転電機2の機械角を取得する機械角取得手段は、回転検出器4及び制御装置5又はこれら回転検出器4及び制御装置5の何れかによって実現される。
From the above, the mechanical angle acquisition means for acquiring the mechanical angle of the rotary
制御装置5は、交流電源Pから供給される交流電力を三相交流電力に変換し回転電機2へ供給するPWMインバータと、このPWMインバータを操作することにより回転電機2を流れる三相交流電流を制御するコンピュータであるベクトル制御用コントローラと、を備える。ベクトル制御用コントローラは、電流センサ3によって検出される三相交流電流を用いてdq変換を行うことにより、d軸電流とq軸電流との直流成分を算出するとともに、これらd軸電流とq軸電流と後述の場予測装置6によって逐次算出される制御パラメータとに基づくベクトル制御を行うことによって回転電機2を流れる三相交流電流を制御する。
The
場予測装置6は、制御装置5との間で通信可能なコンピュータである。場予測装置6は、回転電機2のd軸電流及びq軸電流、回転電機2の機械角及び電気角等によって構成される入力データが入力されると、ニューラルネットワークに基づいて回転電機2の内部における場の予測量を算出する予測モデルを備え、この予測モデルの出力に基づいて上述の制御パラメータを算出し、これを制御装置5へフィードバックする。
The
図2は、場予測装置6の構成を示す図である。
場予測装置6は、入力データ生成部61と、予測モデル62と、磁束密度分布算出部63と、制御パラメータ算出部64と、を備える。
FIG. 2 is a diagram showing the configuration of the
The
入力データ生成部61は、制御装置5から送信されるデータに基づいて、上述のようにニューラルネットワークを備える予測モデル62に対する入力データを生成し、この入力データを予測モデル62へ入力する。入力データ生成部61によって生成される入力データは、少なくともd軸電流Id、q軸電流Iq、及び機械角θm又はこれら電流Id,Iq及び機械角θmによって生成されるパラメータを含む。
The input
本実施形態では、入力データは、d軸電流Idと、q軸電流Iqと、機械角θmの正弦sinθmと、機械角θmの余弦cosθmと、電気角θeの正弦sinθeと、電気角θeの余弦cosθeと、を要素とした6次元の配列とした場合について説明するが、本発明はこれに限らない。入力データの次元数は、6以外であってもよい。なお電気角θeは、回転電機2の極対数が分かれば既知の式を用いて機械角θmに基づいて算出される。例えば回転電機2の極対数がNmである場合、電気角θeは機械角θmのNm倍である(θe=Nmθm)。なお後述の予測モデル62において用いられる多層パーセプトロンは周期成分を学習することができない。このため入力データには、機械角θmや電気角θeの正弦及び余弦を含めることが好ましい。なお本実施形態では、機械角や電気角に対する正弦及び余弦の演算は、場予測装置6側において行う場合について説明するが、本発明はこれに限らない。これら機械角や電気角に対する正弦及び余弦の演算は、制御装置5側において行ってもよい。
In this embodiment, the input data is a d-axis current I d, q-axis current I q and a sine sin [theta m of the mechanical angle theta m, and cosine cos [theta] m of the mechanical angle theta m, sine sin [theta electrical angle theta e The case where a six-dimensional array having e and the cosine cos θ e having an electric angle θ e as elements will be described, but the present invention is not limited to this. The number of dimensions of the input data may be other than 6. The electric angle θ e is calculated based on the mechanical angle θ m using a known equation if the number of pole pairs of the rotary
予測モデル62は、入力データ生成部61によって生成された入力データが入力されると特徴量データを出力する学習済みの予測エンコーダ621と、この予測エンコーダ621から出力される特徴量データが入力されると回転電機2の内部における場の予測量に関する情報を含む出力データを出力する学習済みの予測デコーダ622と、を備える。これら予測エンコーダ621及び予測デコーダ622は、それぞれ後に図7〜図9等を参照して説明する学習方法を経た学習済みのニューラルネットワークによって構成される。
In the
予測エンコーダ621は、入力データを受容する入力層と、この入力層と結合された中間層と、この中間層と結合され特徴量データを出力する出力層と、を備える。入力層の次元数は、入力データの次元数と同じであり、本実施形態では6である。中間層は所定次元数の多層パーセプトロンであり、その重みは、入力データから所定次元数の特徴量データが抽出されるように後述の学習方法によって調整されている。なお中間層の各層は、前層の全てと結合されている全結合層とすることが好ましい。出力層は、中間層によって入力データから抽出された特徴量データを出力する。なお特徴量データの次元数は、入力データの次元数や出力データの次元数等に応じて好ましい値に調整される。
The
予測デコーダ622は、特徴量データを受容する入力層と、この入力層と結合された中間層と、この中間層と結合され出力データを出力する出力層と、を備える。入力層の次元数は、特徴量データの次元数と同じである。中間層は所定次元数の多層パーセプトロンであり、その重みは、特徴量データから所定次元数の出力データが出力されるように後述の学習方法によって調整されている。出力層の次元数は、出力データの次元数と同じである。また出力データの次元数は、入力データの次元数、及び特徴量データの次元数よりも大きい。なお中間層の各層は、前層の全てと結合されている全結合層とすることが好ましい。出力層は、中間層によって特徴量データから展開された出力データを出力する。出力データは、回転電機2の内部の各部分における場の予測量を要素としたN次元の配列である。
The
次に、出力データの構成について図3〜図5を参照しながら詳細に説明する。
図3は、出力データを構成する各要素の値を要素番号順でプロットした図である。図3において、横軸は出力データの要素番号を示し、縦軸は各要素の値を示す。
図4は、回転電機2の断面図であり、場予測装置6による場の予測範囲を示す図である。より具体的には、図4は、回転電機2を回転子21の軸線を中心とした扇状に1/8に切断したものの軸線に対し直交する面に沿った断面図である。
Next, the configuration of the output data will be described in detail with reference to FIGS. 3 to 5.
FIG. 3 is a diagram in which the values of each element constituting the output data are plotted in the order of element numbers. In FIG. 3, the horizontal axis represents the element number of the output data, and the vertical axis represents the value of each element.
FIG. 4 is a cross-sectional view of the rotary
回転電機2の内部に形成される場は周期性がある。このため場予測装置6では、図4に示すように回転電機2の内部のうち回転子21の軸線を中心とした所定の仰角(本実施形態では、45°)の範囲に含まれる部分に予測範囲を定め、この予測範囲内における場の量を予測する。
The field formed inside the rotary
図4に示すように、回転電機2の内部には、中空の円筒状の固定子22と、この固定子22の内部において回転自在に配置された円柱状の回転子21と、これら固定子22の内周面と回転子21の外周面との間の隙間であるギャップ部23と、が形成されている。回転子21には軸線に沿って延びる柱状の永久磁石24が埋め込まれている。固定子22には周方向に沿って延びる複数の溝状のスロット25が形成されている。また隣接する2つのスロット25の間に形成されるティース部26には、図示しないコイルが巻き付けられている。
As shown in FIG. 4, inside the rotary
場予測装置6は、回転電機2の内部の予測範囲内に、回転子21の軸線に対し直交する断面視で格子状に区画することによって、複数の節点と、互いに隣接する節点によって囲まれる複数の面要素と、を定義し、これら節点や面要素におけるスカラー場やベクトル場の予測量を算出する。
The
図5は、回転電機2の内部のうち、回転子21とギャップ部23と固定子22とを含む一部(図4中、破線28で示す部分)に定義される節点及び面要素の一例を示す図である。以下では、回転電機2の内部のうち、回転子21上に定められる節点及び面要素を回転子節点及び回転子面要素といい、固定子22上に定められる節点及び面要素を固定子節点及び固定子面要素といい、ギャップ部23上に定められる節点及び面要素をそれぞれギャップ節点及びギャップ面要素という。
FIG. 5 shows an example of nodes and surface elements defined in a part of the inside of the rotary
図5において、番号n1〜n10で示す節点は回転子節点であり、番号n6〜n15で示す節点はギャップ節点である。なお番号n6〜n10で示す部分は、回転子節点でありかつギャップ節点でもある。また番号16〜n25で示す節点は固定子節点である。図5に示すように、固定子節点n16〜n25のうち回転子側の固定子節点n16〜n20と、ギャップ節点n6〜n15のうち固定子側のギャップ節点n11〜n15とは、それぞれ回転子21の中心軸線を中心とした円周であるスライド線L上に定められている。
In FIG. 5, the nodes indicated by numbers n1 to n10 are rotor nodes, and the nodes indicated by numbers n6 to n15 are gap nodes. The portions indicated by numbers n6 to n10 are rotor nodes and gap nodes. The nodes indicated by numbers 16 to n25 are stator nodes. As shown in FIG. 5, the stator nodes n16 to n20 on the rotor side of the stator nodes n16 to n25 and the gap nodes n11 to n15 on the stator side of the gap nodes n6 to n15 are the
また図5において、番号s1〜s4で示す面要素は、回転子節点によって囲まれる回転子面要素であり、番号s5〜s8で示す面要素は、ギャップ節点によって囲まれるギャップ面要素であり、番号s9〜s12で示す面要素は、固定子節点によって囲まれる固定子面要素である。 Further, in FIG. 5, the surface elements represented by the numbers s1 to s4 are rotor surface elements surrounded by the rotor nodes, and the surface elements indicated by the numbers s5 to s8 are gap surface elements surrounded by the gap nodes. The surface elements represented by s9 to s12 are stator surface elements surrounded by stator nodes.
図5に示すように、場予測装置6は、複数の節点及び面要素のうち、固定子節点及び固定子面要素については回転子21の回転中心を原点とした静止座標系に定め、回転子節点、ギャップ節点、回転子面要素、及びギャップ面要素については、回転子21の回転中心を原点としかつ上記静止座標系に対し機械角だけ傾斜する回転座標系に定める。従ってスライド線L上に定められたギャップ節点n11〜n15は、機械角が変化するとスライド線Lに沿って移動する。
As shown in FIG. 5, the
予測モデル62は、以上のようにして予測範囲内に定められた複数の回転子節点、複数のギャップ節点、複数の固定子節点におけるスカラー場であるベクトルポテンシャルの予測量を出力データとして出力する。すなわち本実施形態における予測モデル62の出力データは、回転座標系上に定められた複数の回転子節点及びギャップ節点におけるベクトルポテンシャルの予測量及び静止座標系上に定められた複数の固定子節点におけるベクトルポテンシャルの予測量を要素とした配列である。従って予測モデル62の出力データの要素番号(1〜N)は回転座標系及び静止座標系に定義される節点の番号と対応している。
The
図2に戻り、磁束密度分布算出部63は、予測モデル62の出力データに基づいて、上述の面要素におけるベクトル場である磁束密度の予測量の静止座標系における分布を算出する。図5を参照して説明したように、各面要素は、隣接する複数の節点によって囲まれる面として定義される。例えば図5において、回転子面要素s2は4つの回転子節点n2,n3,n7,n8によって囲まれている。そこで磁束密度分布算出部63は、対象とする面要素と、この面要素を取り囲む複数の節点とを特定し、特定した複数の節点におけるベクトルポテンシャルの予測量を予測モデル62の出力データから読み込み、読み込んだ各節点におけるベクトルポテンシャルの予測量を用いた既知の演算式に基づいて対象とする面要素における磁束密度の予測量の静止座標系における分布を算出する。従って磁束密度分布算出部63の出力データは、静止座標系での複数の固定子面要素、複数の回転子面要素、及び複数のギャップ面要素における磁束密度の予測量を要素とした配列である。従って磁束密度分布算出部63の出力データの要素番号は静止座標系に定義される面要素の番号と対応している。なお図2には、磁束密度分布算出部63の出力データの各要素の値を濃淡によって表示したものを図示する。
Returning to FIG. 2, the magnetic flux density
図5を参照して説明したように、静止座標系上に定められる固定子面要素の位置は機械角に応じて変化しない。このため固定子面要素における磁束密度の予測量を算出するために必要となる予測モデル62の出力データの要素番号は、機械角によらず普遍である。従って磁束密度分布算出部63は、固定子面要素における磁束密度の予測量の分布については、予測モデル62の出力データに基づいて機械角によらず一意的に算出することができる。
As described with reference to FIG. 5, the position of the stator surface element defined on the stationary coordinate system does not change according to the machine angle. Therefore, the element number of the output data of the
これに対し回転座標系上に定められる回転子面要素及びギャップ面要素の静止座標系での位置は、機械角に応じて変化する。このため回転子面要素及びギャップ面要素における磁束密度の予測量を算出するために必要となる予測モデル62の出力データの要素番号は、機械角に応じて変化する。このため磁束密度分布算出部63の記憶媒体には、静止座標系での回転子面要素及びギャップ面要素の位置と、予測モデル62の出力データのうちこれら面要素における磁束密度の予測量と相関のある要素番号とを関連付ける変換マップが複数記憶されている。より具体的には、複数の変換マップは、機械角に対するサンプリング角と関連付けられた状態で磁束密度分布算出部63の記憶媒体に記憶されている。
On the other hand, the positions of the rotor surface element and the gap surface element defined on the rotating coordinate system in the stationary coordinate system change according to the machine angle. Therefore, the element number of the output data of the
磁束密度分布算出部63は、機械角が複数のサンプリング角の何れかと一致する場合には、このサンプリング角と関連付けられた変換マップを参照することによって静止座標系での回転子面要素及びギャップ面要素における磁束密度の予測量を算出するために必要となる予測モデル62の出力データの要素番号を特定し、これら要素番号のベクトルポテンシャルの予測量を用いた既知の演算式に基づいて回転子面要素及びギャップ面要素における磁束密度の予測量の静止座標系における分布を算出する。また磁束密度分布算出部63は、機械角が複数のサンプリング角の何れかとも一致しない場合には、所定の補間演算を行うことによって静止座標系での回転子面要素及びギャップ面要素における磁束密度の予測量の分布を算出するために必要となる予測モデル62の出力データの要素番号を特定し、これら要素番号のベクトルポテンシャルの予測量を用いた既知の演算式に基づいて回転子面要素及びギャップ面要素における磁束密度の予測量の静止座標系における分布を算出する。
When the magnetic flux density
ここでサンプリング角とは、図6に示すように、スライド線L上に定められた複数のギャップ節点n11〜n15と固定子節点n16〜n20とが一致する機械角をいう。すなわち、スライド線L上に定められたギャップ節点n11〜n15は、機械角が変化するとスライド線Lに沿って移動する。このため、スライド線L上における節点の間隔に比例した所定のサンプリング角と機械角とが一致すると、図6に示すようにギャップ節点n11〜n15と固定子節点n16〜n20とが一致する。 Here, the sampling angle means a mechanical angle at which a plurality of gap nodes n11 to n15 defined on the slide line L and stator nodes n16 to n20 coincide with each other, as shown in FIG. That is, the gap nodes n11 to n15 defined on the slide line L move along the slide line L when the mechanical angle changes. Therefore, when the predetermined sampling angle proportional to the interval between the nodes on the slide line L and the mechanical angle match, the gap nodes n11 to n15 and the stator nodes n16 to n20 coincide with each other as shown in FIG.
また図5及び図6に示すように、回転座標系上に定義される回転子面要素及びギャップ面要素のうち、ギャップ面要素は回転座標系上に定義されるギャップ節点n11〜n15だけでなく静止座標系上に定義される固定子節点n16〜n20とも隣接する。そこで磁束密度分布算出部63は、ギャップ面要素における磁束密度の予測量を算出する場合において、図6に示すように機械角とサンプリング角とが一致する場合、スライド線L上におけるギャップ節点n11〜n15におけるベクトルポテンシャルの予測量とこれらギャップ節点n11〜n15と重複する固定子節点n16〜n20におけるベクトルポテンシャルの予測量とは等しいものとし、固定子節点n16〜n20におけるベクトルポテンシャルの予測量に基づいて対象とするギャップ面要素における磁束密度の予測量を算出する。より具体的には、例えば図6に示すような例において、ギャップ面要素s7における磁束密度の予測量を算出する場合、上述の変換マップは、ギャップ節点n8,n9及び固定子節点n18,n19におけるベクトルポテンシャルの予測量が読み込まれるように構成されている。
Further, as shown in FIGS. 5 and 6, among the rotor surface element and the gap surface element defined on the rotating coordinate system, the gap surface element is not only the gap nodes n11 to n15 defined on the rotating coordinate system. It is also adjacent to the stator nodes n16 to n20 defined on the stationary coordinate system. Therefore, when the magnetic flux density
また磁束密度分布度算出部63は、ギャップ面要素における磁束密度の予測量を算出する場合において、図5に示すように機械角とサンプリング角とが一致しない場合、対象とするギャップ面要素を取り囲むギャップ節点のうちスライド線L上に定義されているものについては、これらスライド線L上に定義されているギャップ節点と隣接する固定子節点におけるベクトルポテンシャルの予測量に基づいて対象とするギャップ面要素における磁束密度の予測量を算出する。より具体的には、例えば図5に示すような例において、ギャップ面要素s7における磁束密度の予測量を算出する場合、上述の補間演算は、ギャップ節点n8,n9及びギャップ節点n13,n14と隣接する3つの固定子節点n18,n19,n20におけるベクトルポテンシャルの予測量を読み込まれるように構成されている。
Further, when calculating the predicted amount of the magnetic flux density in the gap surface element, the magnetic flux density distribution
図2に戻り、制御パラメータ算出部64は、磁束密度分布算出部63の出力データに基づいて制御装置5のベクトル制御用コントローラにおけるベクトル制御に用いられる制御パラメータを算出し、これを制御装置5へ送信する。ここで制御パラメータ算出部64において磁束密度分布算出部63の出力データに基づいて算出可能な制御パラメータの具体例としては、回転電機2のトルク、平均トルク、鉄損、トルクリプル率、及び変位等が挙げられる。
Returning to FIG. 2, the control
次に、以上のような場予測装置6の予測モデル62をコンピュータによって学習する学習方法の手順について、図7〜図9を参照しながら説明する。
Next, the procedure of the learning method for learning the
図7は、第1の学習方法の手順を示すフローチャートである。
図8は、第1の学習方法の手順を模式的に示す図である。
FIG. 7 is a flowchart showing the procedure of the first learning method.
FIG. 8 is a diagram schematically showing the procedure of the first learning method.
始めにS1では、作業者は、複数組の異なる入力データの下でコンピュータを用いた数値シミュレーション(例えば、FEM)を行うことによって複数組の学習データを生成する(図8中、矢印8A参照)。より具体的には、作業者は、回転電機2の諸元や動作条件に基づいて、予測モデル62に対する入力データを構成する各パラメータ(d軸電流、q軸電流、及び機械角等)を所定範囲内でスイープさせることにより、複数組の異なる入力データを準備する。ここで機械角については、上述のサンプリング角間隔でスイープさせることが好ましい。次に作業者は、生成した各入力データの下で数値シミュレーションを行うことにより、回転電機の内部におけるベクトルポテンシャルの分布、より具体的には上述の回転座標系及び静止座標系上の各節点におけるベクトルポテンシャルを算出し、これを学習データとする。S1では、作業者は、準備した入力データ毎に以上のような作業を繰り返し行うことにより、複数組の入力データと、これら入力データに応じた複数組の学習データを生成する。
Introduction In S1, the worker generates a plurality of sets of training data by performing a numerical simulation (for example, FEM) using a computer under a plurality of sets of different input data (see
またS1では、複数組の学習データとともに、各学習データに基づいて、回転電機2の内部における磁束密度の分布、より具体的には上述の回転座標系及び静止座標系上の各面要素における磁束密度を算出する(図8中、矢印8B参照)。より具体的には、作業者は、学習データとして算出した各節点のベクトルポテンシャルの分布に基づいて既知の演算を行うことにより、回転座標系及び静止座標系上の各面要素における磁束密度を算出する。
Further, in S1, together with a plurality of sets of training data, the distribution of the magnetic flux density inside the rotating
ここで面要素に定義される磁束密度と節点に定義されるベクトルポテンシャルとの間で変換するためには、回転座標系における面要素と節点との対応関係を規定しておく必要がある。そこで作業者は、S1においてベクトルポテンシャルから磁束密度に変換する際に規定した対応関係に基づいて、上述の磁束密度分布算出部63における変換マップをサンプリング角毎に作成しておき、サンプリング角と変換マップとを関連付けて記憶媒体に保存しておくことが好ましい。
Here, in order to convert between the magnetic flux density defined in the surface element and the vector potential defined in the node, it is necessary to define the correspondence between the surface element and the node in the rotating coordinate system. Therefore, the operator creates a conversion map for each sampling angle in the above-mentioned magnetic flux density
S2では、作業者は、S1で準備した複数組の入力データと、各入力データに基づいて生成された複数組の学習データと、を関連付けて記憶媒体に保存する。 In S2, the worker associates the plurality of sets of input data prepared in S1 with the plurality of sets of learning data generated based on each input data and stores them in the storage medium.
S3では、作業者は、第1学習エンコーダ651及び第1学習デコーダ652を備えるオートエンコーダ65を準備し、複数組の学習データを正解ラベルとして用いることによってこれら第1学習エンコーダ651及び第1学習デコーダ652を学習する(図8中、矢印8C参照)。ここで第1学習エンコーダ651の入力層の次元数及び第1学習デコーダ652の出力層の次元数は、S1で生成した学習データと同じ次元数とする。作業者は、このような第1学習エンコーダ651に学習データを入力した場合に第1学習デコーダ652から出力される出力データと、第1学習エンコーダ651へ入力した学習データとの差が所定値以下になるまで既知のアルゴリズムに基づいて第1学習エンコーダ651及び第1学習デコーダ652を学習する。
In S3, the operator prepares an
S4では、作業者は、S1で準備した複数組の入力データと、各入力データに基づいて生成された複数組の学習データと、各学習データをS3における学習済みの第1学習エンコーダ651に入力した場合にこの第1学習エンコーダ651から出力される複数組の第1特徴量データと、を関連付けて記憶媒体に保存する。
In S4, the worker inputs a plurality of sets of input data prepared in S1, a plurality of sets of learning data generated based on each input data, and each learning data into the trained first learning
S5では、作業者は、第2学習エンコーダ661を準備し、複数組の第1特徴量データを正解ラベルとして用いることによってこの第2学習エンコーダ661を学習する(図8中、矢印8D参照)。ここで第2学習エンコーダ661の入力層の次元数は入力データの次元数と同じとし、第2学習エンコーダ661の出力層の次元数は第1特徴量データの次元数と同じとする。作業者は、このような第2学習エンコーダ661に入力データを入力した場合にこの第2学習エンコーダ661から出力される出力データと、第2学習エンコーダ661に入力した入力データと関連付けて保存した第1特徴量データとの差が所定値以下になるまで第2学習エンコーダ661を学習する。
In S5, the operator prepares the
S6では、作業者は、学習済みの第2学習エンコーダ661と学習済みの第1学習デコーダ652とを組み合わせることにより予測モデル62を構築する。より具体的には、作業者は、S5における学習済みの第2学習エンコーダ661を予測エンコーダ621とし、S2における学習済みの第1学習デコーダ652を予測デコーダ622とし、これら予測エンコーダ621及び予測デコーダ622を組み合わせることによって予測モデル62を構築する。
In S6, the operator builds the
S7では、作業者は、学習データを正解ラベルとして用いることによって、予測エンコーダ621のファインチューニング学習及び予測デコーダ622の転移学習を行う(図8中、矢印8E参照)。より具体的には、作業者は、予測エンコーダ621に入力データを入力した場合に予測デコーダ622から出力される出力データと、予測エンコーダ621への入力データと関連付けられた学習データとの差が所定値以下になるまで、予測エンコーダ621に対しては中間層の重みを凍結しないファインチューニング学習を行うとともに、予測デコーダ622に対しては中間層の重みを凍結した転移学習を行う。図2に示す予測モデル62には、以上のような工程を経て学習されたものが用いられる。
In S7, the operator uses the training data as a correct label to perform fine tuning learning of the
図9は、第2の学習方法の手順を示すフローチャートである。なお以下の図9の説明において、S11〜S13に示す処理は、図7のS1〜S3に示す処理と同じであるので、詳細な説明を省略する。 FIG. 9 is a flowchart showing the procedure of the second learning method. In the following description of FIG. 9, the processes shown in S11 to S13 are the same as the processes shown in S1 to S3 of FIG. 7, so detailed description thereof will be omitted.
S14では、作業者は、学習済みの第1学習デコーダ652と未学習の予測エンコーダ621とを組み合わせることにより予測モデル62を構築する。より具体的には、作業者は、S12における学習済みの第1学習デコーダ652を予測デコーダ622とし、この予測デコーダ622と未学習の予測エンコーダ621とを組み合わせることによって予測モデル62を構築する。
In S14, the operator builds the
S15では、作業者は、学習データを正解ラベルとして用いることによって、予測エンコーダ621の学習及び予測デコーダ622の転移学習を行う。より具体的には、作業者は、予測エンコーダ621に入力データを入力した場合に予測デコーダ622から出力される出力データと、予測エンコーダ621への入力データと関連付けられた学習データとの差が所定値以下になるまで、予測エンコーダ621に対しては中間層の重みを凍結せずに学習を行うとともに、予測デコーダ622に対しては中間層の重みを凍結した転移学習を行う。図2に示す予測モデル62には、以上のような工程を経て学習したものを用いることもできる。
In S15, the operator uses the training data as a correct label to learn the
なお上記第1実施形態では、回転電機2の場予測装置6を回転電機制御システム1に組み込んだ場合について説明したが、本発明はこれに限らない。上述のように場予測装置6は、d軸電流Idやq軸電流Iq等によって構成される入力データを入力すると、シミュレーションを経ることなく速やかに回転電機の内部における磁束密度の分布を出力する機能を備える。このため、場予測装置6は、回転電機の設計、開発時に利用することもできる。
In the first embodiment, the case where the
なお上記第1実施形態では、第1及び第2の学習方法の手順について回転電機2の場予測装置6の予測モデル62を例に説明したが、本発明はこれに限らない。上述の第1及び第2の学習方法は、回転電機2の場予測装置6に限らず、一般的な場予測装置にも適用することができる。ここで一般的な場予測装置とは、何等かのエネルギ源(熱源、電流等)から供給されるエネルギ(熱、電場、磁場等)が伝達する構造物の内部における場の量をニューラルネットワークによって構築される予測モデルで予測するものをいう。またこのような予測モデルを、エネルギ源の状態に関する情報を含む入力データが入力されると特徴量データを出力する予測エンコーダと、この特徴量データが入力されると構造物の内部における場の予測量に関する情報を含む出力データを出力する予測デコーダと、によって構築した場合、これら予測エンコーダ及び予測デコーダは、上述の第1及び第2の学習方法と同じ手順によって学習することができる。
In the first embodiment, the procedures of the first and second learning methods have been described by taking the
本実施形態に係る場予測装置6によれば、以下の効果を奏する。
(1)場予測装置6は、回転電機2のd軸電流、q軸電流及び機械角又はこれらパラメータに基づいて生成される入力データが入力されるとニューラルネットワークに基づいて回転電機2の内部における場の予測量を含む出力データを出力する予測モデル62を備える。場予測装置6によれば、このような予測モデル62を用いることにより、固定子22及び回転子21を備える回転電機2の内部における場の量を、シミュレーションを経ることなく速やかに予測することができる。
According to the
(1) The
(2)予測モデル62は、回転電機2の内部に回転子21の軸線に対し直交する断面視で格子状に区画することによって複数の節点及び面要素を定義し、これら節点又は面要素におけるスカラー場又はベクトル場の予測量を算出する。これにより、回転電機2の内部におけるスカラー場やベクトル場の分布を、シミュレーションを経ることなく速やかに予測することができる。
(2) The
(3)予測モデル62は、節点におけるベクトルポテンシャルの予測量を算出する。これにより、回転電機2の内部におけるベクトルポテンシャルの分布を、シミュレーションを経ることなく速やかに予測することができる。
(3) The
(4)場予測装置6は、予測モデル62の出力データに基づいて、面要素における磁束密度の予測量の分布を算出する磁束密度分布算出部63を備える。これにより、回転電機2の内部における磁束密度の分布を、シミュレーションを経ることなく速やかに予測することができる。
(4) The
(5)磁束密度分布算出部63は、静止座標系での回転子面要素又はギャップ面要素の位置と予測モデル62の出力データのうちこれら面要素における磁束密度と相関のある要素番号とを関連付ける変換マップと、予測モデル62の出力データとに基づいて、固定子面要素、回転子面要素、及びギャップ面要素における磁束密度の予測量の静止座標系における分布を算出する。これにより、所定の機械角における回転電機2の内部の磁束密度の分布を、シミュレーションを経ることなく速やかに予測することができる。
(5) The magnetic flux density
(6)磁束密度分布算出部63は、機械角と複数のサンプリング角の何れかと一致する場合には、このサンプリング角と関連付けられた変換マップを参照して磁束密度の予測量の静止座標系における分布を算出し、機械角と複数のサンプリング角の何れかとも一致しない場合には、補間演算を行うことによって磁束密度の予測量の静止座標系における分布を算出する。これにより、サンプリング角以外の任意の機械角における回転電機2の内部の磁束密度の分布を、シミュレーションを経ることなく速やかに予測することができる。
(6) When the magnetic flux density
(7)場予測装置6では、予測モデル62を予測エンコーダ621と予測デコーダ622とを組み合わせることによって構成する。また予測エンコーダ621への入力データには、d軸電流、q軸電流、機械角の正弦及び余弦、並びに電気角の正弦及び余弦を含める。ニューラルネットワークとして広く用いられる多層パーセプトロンは周期成分を学習することができない。そこで場予測装置6では、周期的に変化する機械角や電気角については、各々の正弦及び余弦を予測エンコーダ621への入力とすることにより、機械角や電気角に応じて周期的に変動する回転電機2の内部の場の量を、シミュレーションを経ることなく速やかに予測することができる。
(7) In the
本実施形態に係る第1の学習方法によれば、以下の効果を奏する。
(8)第1の学習方法によれば、回転電機2の内部の場の量の予測精度の高い場予測装置6を構築することができる。
According to the first learning method according to the present embodiment, the following effects are obtained.
(8) According to the first learning method, it is possible to construct a
本実施形態に係る第2の学習方法によれば、以下の効果を奏する。
(9)第2の学習方法によれば、第1の学習方法と同様に、回転電機2の内部の場の量の予測精度の高い場予測装置6を構築することができる。また第1の学習方法と比較した場合、入力データと学習データと特徴量とを関連付けて保存する必要が無いので、その分必要な記憶領域を小さくできる。
According to the second learning method according to the present embodiment, the following effects are obtained.
(9) According to the second learning method, it is possible to construct a
本実施形態に係る回転電機制御システム1によれば、以下の効果を奏する。
(10)上述のように場予測装置6は、回転電機2の内部における場の量を、シミュレーションを経ることなく速やかに予測することができる。場予測装置6のこのような特徴を利用して回転電機制御システム1では、場予測装置6から出力される出力データに基づいて回転電機2の制御パラメータを算出し、制御装置5は、電流センサ3の検出信号及び制御パラメータに基づいて回転電機2を流れる三相交流電流を制御する。換言すれば、制御装置5は、電流センサ3による検出信号とともに、場予測装置6の出力を利用して算出される制御パラメータを利用して回転電機2の三相交流電流を制御する。これにより、回転電機2の内部の状態に応じて適切に三相交流電流を制御することができる。
According to the rotary electric machine control system 1 according to the present embodiment, the following effects are obtained.
(10) As described above, the
<第2実施形態>
次に、本発明の第2実施形態に係る回転電機の場予測装置6Aについて、図面を参照しながら詳細に説明する。
<Second Embodiment>
Next, the
図10は、本実施形態に係る場予測装置6Aの構成を示す図である。場予測装置6Aは、第1実施形態に係る場予測装置6と、予測モデル62A及び磁束密度分布算出部63Aの構成が異なる。より具体的には、第1実施形態に係る場予測装置6と本実施形態に係る場予測装置6Aとでは、予測モデル62Aの出力データの構成が異なる。なお以下の場予測装置6Aの説明において、第1実施形態に係る場予測装置6と同じ構成については同じ符号を付し、詳細な説明を省略する。
FIG. 10 is a diagram showing a configuration of a
予測モデル62Aは、入力データ生成部61によって生成された入力データが入力されると特徴量データを出力する学習済みの予測エンコーダ621Aと、この予測エンコーダ621Aから出力される特徴量データが入力されると回転電機2の内部における場の予測量に関する情報を含む出力データを出力する学習済みの予測デコーダ622Aと、を備える。これら予測エンコーダ621A及び予測デコーダ622Aの構成は、第1実施形態に係る予測エンコーダ621及び予測デコーダ622とほぼ同じであるが、予測エンコーダ621Aから出力される特徴量データ及び予測デコーダ622Aから出力される出力データの構成が異なる。より具体的には、予測モデル62Aの予測デコーダ622Aは、図5等を参照して説明したように予測範囲内に定められた複数の回転子面要素、複数のギャップ面要素、複数の固定子面要素におけるベクトル場である磁束密度の予測量を出力データとして出力する。すなわち本実施形態おける予測モデル62Aの出力データは、回転座標系上に定められた複数の回転子面要素及びギャップ面要素における磁束密度の予測量及び静止座標系上に定められた複数の固定子面要素における磁束密度の予測量を要素とした配列である。従って予測モデル62Aの出力データの要素番号(1〜M)は回転座標系及び静止座標系に定義される面要素の番号と対応している。
In the
磁束密度分布算出部63Aは、予測モデル62Aの出力データに基づいて磁束密度の予測量の静止座標系における分布を算出する。図5を参照して説明したように、静止座標系上に定められる固定子面要素の位置は機械角に応じて変化しない。このため磁束密度分布算出部63Aは、固定子面要素における磁束密度の予測量の分布については、予測モデル62Aの出力データに基づいて機械角によらず一意的に算出することができる。
The magnetic flux density
これに対し回転座標系上に定められる回転子面要素及びギャップ面要素の静止座標系での位置は、機械角に応じて変化する。このため磁束密度分布算出部63Aの記憶媒体には、静止座標系での回転子面要素及びギャップ面要素の位置と、予測モデル62Aの出力データの要素番号とを関連付ける変換マップが複数記憶されている。より具体的には、複数の変換マップは、機械角に対するサンプリング角と関連付けられた状態で磁束密度分布算出部63Aの記憶媒体に記憶されている。
On the other hand, the positions of the rotor surface element and the gap surface element defined on the rotating coordinate system in the stationary coordinate system change according to the machine angle. Therefore, in the storage medium of the magnetic flux density
磁束密度分布算出部63Aは、機械角が複数のサンプリング角の何れかと一致する場合には、このサンプリング角と関連付けられた変換マップと予測モデル62Aの出力データとを参照することによって回転子面要素及びギャップ面要素における磁束密度の予測量の静止座標系における分布を算出する。また磁束密度分布算出部63Aは、機械角が複数のサンプリング角の何れかとも一致しない場合には、所定の補間演算を行うことによって回転子面要素及びギャップ面要素における磁束密度の予測量の静止座標系における分布を算出する。
When the magnetic flux density
以上のような予測モデル62Aの予測エンコーダ621A及び予測デコーダ622Aは、図7〜図9に示す第1の学習方法又は第2の学習方法とほぼ同じ手順によって好ましい入出力特性が得られるように学習することができる。より具体的には、第1の学習方法及び第2の学習方法では、回転座標系及び静止座標系における各節点のベクトルポテンシャルを学習データとした。これに対し本実施形態に係る予測エンコーダ621A及び予測デコーダ622Aは、上述の第1の学習方法及び第2の学習方法において、回転座標系及び静止座標系における各面要素の磁束密度を学習データとすることにより、ほぼ同じ手順によって学習することができる。
The
本実施形態に係る場予測装置6Aによれば、以下の効果を奏する。
(11)予測モデル62Aは、面要素における磁束密度の予測量を算出する。これにより、回転電機2の内部における磁束密度の分布を、シミュレーションを経ることなく速やかに予測することができる。
According to the
(11) The
(12)磁束密度分布算出部63Aは、静止座標系での回転子面要素又はギャップ面要素の位置と予測モデル62Aの出力データのうちこれら面要素における磁束密度と相関のある要素番号とを関連付ける変換マップと、予測モデル62Aの出力データとに基づいて、固定子面要素、回転子面要素、及びギャップ面要素における磁束密度の予測量の静止座標系における分布を算出する。これにより、所定の機械角における回転電機2の内部の磁束密度の分布を、シミュレーションを経ることなく速やかに予測することができる。
(12) The magnetic flux density
(13)磁束密度分布算出部63Aによれば、サンプリング角以外の任意の機械角における回転電機2の内部の磁束密度の分布を、シミュレーションを経ることなく速やかに予測することができる。
(13) According to the magnetic flux density
<第3実施形態>
次に、本発明の第3実施形態に係る回転電機の場予測装置6Bについて、図面を参照しながら詳細に説明する。
<Third Embodiment>
Next, the
図11は、本実施形態に係る場予測装置6Bの構成を示す図である。場予測装置6Bは、第1実施形態に係る場予測装置6と、入力データ生成部61B及び予測モデル7の構成が異なる。より具体的には、第1実施形態に係る場予測装置6の予測モデル62は入力データを1系統とする1−チャネルのニューラルネットワークであったのに対し、本実施形態に係る場予測装置6Bの予測モデル7は入力データを2系統とする2−チャネルのニューラルネットワークである点において異なる。なお以下の場予測装置6Bの説明において、第1実施形態に係る場予測装置6と同じ構成については同じ符号を付し、詳細な説明を省略する。
FIG. 11 is a diagram showing a configuration of a
入力データ生成部61Bは、図示しない制御装置5から送信されるデータに基づいて、上述のように2−チャネルのニューラルネットワークを備える予測モデル7に対する第1入力データ及び第2入力データを生成し、これら第1及び第2入力データを予測モデル7へ入力する。これら第1及び第2入力データは、少なくともd軸電流Id、q軸電流Iq、電気角θe、及び機械角θm又はこれら電流Id,Iq及び角θm,θeによって生成されるパラメータを含む。
The input
第1入力データは、d軸電流Idと、q軸電流Iqと、電気角θeの正弦sinθeと、電気角θeの余弦cosθeと、を要素とした4次元の配列とした場合について説明するが、本発明はこれに限らない。第1入力データの次元数は、4以外であってもよい。なお電気角θeは、回転電機2の極対数が分かれば既知の式を用いて機械角θmに基づいて算出される。例えば回転電機2の極対数がNmである場合、電気角θeは機械角θmのNm倍である(θe=Nmθm)。
The first input data was the the d-axis current I d, the q-axis current I q, the sine sin [theta e of the electrical angle theta e, and cosine cos [theta] e of the electrical angle theta e, and four-dimensional array of the elements The case will be described, but the present invention is not limited to this. The number of dimensions of the first input data may be other than 4. The electric angle θ e is calculated based on the mechanical angle θ m using a known equation if the number of pole pairs of the rotary
また第2入力データは、機械角θmの正弦sinθmと、機械角θmの余弦cosθmと、機械角θmの整数M倍角の正弦sinMθmと、機械角θmの整数M倍角の余弦sinMθmと、機械角θmの整数N倍角の正弦sinNθmと、機械角θmの整数N倍角の余弦sinNθmと、機械角θmの整数S倍角の正弦sinSθmと、機械角θmの整数S倍角の余弦sinSθmと、を要素とした8次元の配列とした場合について説明するが、本発明はこれに限らない。第2入力データの次元数は、8以外であってもよい。これら整数M,N,Sは、それぞれ回転電機の構造から定められる。より具体的には、整数Sは同期電動機特有の脈動トルクとして知られているコギングトルク成分(スロット数と極数の最小公倍数成分及びその整数倍成分)に相当し、整数Nは回転電機の相数と極数との積に相当し、整数Mは極対数当たりの永久磁石の数に相当する。なおこれら機械角θmの倍角(Mθm,Nθm,Sθm)のうち電気角θeと同じものについては、第2入力データから除いておくことが好ましい。 The second input data, a sine sin [theta m of the mechanical angle theta m, and cosine cos [theta] m of the mechanical angle theta m, an integer M double angle of mechanical angle theta m and sine SinMshita m, an integer M double angle of mechanical angle theta m and cosine sinMθ m, sine SinNshita m an integer N double angle of mechanical angle theta m, and cosine SinNshita m an integer N double angle of mechanical angle theta m, sine SinSshita m integer S double angle of mechanical angle theta m, mechanical angle theta The case where an 8-dimensional array having the cosine sinSθ m , which is an integer S double angle of m, as an element will be described, but the present invention is not limited to this. The number of dimensions of the second input data may be other than 8. These integers M, N, and S are each determined from the structure of the rotary electric machine. More specifically, the integer S corresponds to the cogging torque component (the least common multiple component of the number of slots and the number of poles and its integral multiple component) known as the pulsating torque peculiar to the synchronous electric machine, and the integer N is the phase of the rotating electric machine. It corresponds to the product of the number and the number of poles, and the integer M corresponds to the number of permanent magnets per number of pole pairs. Note double angle of mechanical angle θ m (Mθ m, Nθ m , Sθ m) for the same as the electrical angle theta e of, it is preferable that, except from the second input data.
なお以下では、電気角θeは機械角θmの2倍(θe=2θm)とし、整数Sは24とし、整数Nは12とし、整数Mは2とした場合について説明する。この場合、機械角θmの整数M倍角は、電気角θeと等しいので、第2入力データのうち機械角θmの整数M倍角については省略することができる。従って以下では、第1入力データは4次元とし、第2入力データは6次元とした場合について説明する。 In the following, a case will be described in which the electric angle θ e is twice the mechanical angle θ m (θ e = 2θ m ), the integer S is 24, the integer N is 12, and the integer M is 2. In this case, the integer M double angle of mechanical angle theta m is equal electrical angle theta E, the integers M double angle of mechanical angle theta m of the second input data can be omitted. Therefore, in the following, the case where the first input data is four-dimensional and the second input data is six-dimensional will be described.
予測モデル7は、第1入力データが入力される第1チャネル71と、第2入力データが入力される第2チャネル74と、これら第1チャネル71の第1出力データと第2チャネル74の第2出力データとを合成する合成部77と、を備える。
In the prediction model 7, the
第1チャネル71は、第1入力データが入力されると第1特徴量データを出力する学習済みの第1予測エンコーダ72と、この第1予測エンコーダ72から出力される第1特徴量データが入力されると回転電機の内部における場の予測量に関する情報を含む第1出力データを出力する学習済みの第1予測デコーダ73と、を備える。これら第1予測エンコーダ72及び第1予測デコーダ73は、それぞれ後に図14及び図15を参照して説明する学習方法を経た学習済みのニューラルネットワークによって構成される。
In the
図12は、第1チャネル71の構成を示す図である。第1予測エンコーダ72は、第1入力データを受容する入力層721と、この入力層721と結合された第1中間層722と、この第1中間層722の一部と結合された第2中間層723と、第1中間層722の一部及び第2中間層723と結合された第3中間層724と、この第3中間層724と結合された第4中間層725と、この第4中間層725と結合され第1特徴量データを出力する出力層726と、を備える。第1中間層722〜第4中間層725は、それぞれ所定次元数及び所定層数のパーセプトロンであり、その重みは、入力データから所定次元数の第1特徴量データが抽出されるように後述の学習方法によって調整されている。なお各中間層722〜725を構成する各層は、それぞれ前層の全てと結合されている全結合層とすることが好ましい。
FIG. 12 is a diagram showing the configuration of the
入力層721は、第1入力データのうち直流成分の1つであるd軸電流Idを受容する入力層721aと、第1入力データのうち直流成分の1つであるq軸電流Iqを受容する入力層721bと、第1入力データのうち基本波成分である電気角2θmの正弦sin2θm及び余弦cos2θmを受容する入力層721cと、を備える。従って入力層721の次元数は、第1入力データの次元数と同じ4である。
The input layer 721 receives the input layer 721a that receives the d-axis current I d , which is one of the DC components of the first input data, and the q-axis current I q , which is one of the DC components of the first input data. includes an
第1中間層722は、入力層721aのみと結合された中間層722aと、入力層721bのみと結合された中間層722bと、入力層721cのみと結合された中間層722cと、を備える。第1中間層722の次元数は、入力層721の次元数と同じ4であるが、本発明はこれに限らない。
The first
第2中間層723は、第1中間層722のうち、基本波成分が入力される中間層722cのみと結合されている。第2中間層723の次元数は、第1中間層722の中間層722cの次元数と同じ2であるが、本発明はこれに限らない。
The second
第3中間層724は、第1中間層722のうち直流成分が入力される中間層722a,722b及び第2中間層723と結合されている。第3中間層724の次元数は、入力層721の次元数よりも小さな4であるが、本発明はこれに限らない。
The third
第4中間層725は、第3中間層724と結合されている。第4中間層725の次元数、出力層726の次元数、及び第1特徴量データの次元数は、それぞれ抽出したいパラメータの数以上であり、例えば8以上である。以下では、第4中間層725の次元数、出力層726の次元数、及び第1特徴量データの次元数を8とした場合について説明するが、本発明はこれに限らない。
The fourth
第1予測デコーダ73は、第1特徴量データを受容する入力層731と、この入力層731と結合された中間層732と、この中間層732と結合され第1出力データを出力する出力層733と、を備える。入力層731の次元数は、第1特徴量データの次元数と同じである。中間層732は、所定次元数の多層パーセプトロンであり、その重みは、第1特徴量データから所定次元数の第1出力データが出力されるように後述の学習方法によって調整される。出力層733の次元数は、第1出力データの次元数と同じである。また第1出力データの次元数は、第1入力データの次元数、及び第1特徴量データの次元数よりも大きい。なお中間層732の各層は、前層の全てと結合されている全結合層とすることが好ましい。出力層733は、中間層732によって第1特徴量データから展開された第1出力データを出力する。
The
第1出力データは、回転電機の内部の各部分における場の予測量を要素としたN次元の配列である。なお本実施形態では、第1出力データは、第1実施形態と同様に、各節点におけるベクトルポテンシャルの予測量を要素とする配列とした場合について説明するが、本発明はこれに限らない。第1出力データは、第2実施形態と同様に、各面要素における磁束密度の予測量を要素とする配列としてもよい。 The first output data is an N-dimensional array having the predicted amount of the field in each part inside the rotary electric machine as an element. In the present embodiment, as in the first embodiment, the case where the first output data is an array having the predicted amount of the vector potential at each node as an element will be described, but the present invention is not limited to this. The first output data may be an array having the predicted amount of magnetic flux density in each surface element as an element, as in the second embodiment.
図11に戻り、第2チャネル74は、第2入力データが入力されると第2特徴量データを出力する学習済みの第2予測エンコーダ75と、この第2予測エンコーダ75から出力される第2特徴量データが入力されると回転電機の内部における場の予測量に関する情報を含む第2出力データを出力する学習済みの第2予測デコーダ76と、を備える。これら第2予測エンコーダ75及び第2予測デコーダ76は、それぞれ後に図14及び図15を参照して説明する学習方法を経た学習済みのニューラルネットワークによって構成される。
Returning to FIG. 11, the
図13は、第2チャネル74の構成を示す図である。第2予測エンコーダ75は、第2入力データを受容する入力層751と、この入力層751と結合された第1中間層752と、この第1中間層752と結合された第2中間層753と、この第2中間層753と結合された第3中間層754と、この第3中間層754と結合され第2特徴量データを出力する出力層755と、を備える。第1中間層752〜第3中間層754は、それぞれ所定次元数及び所定層数のパーセプトロンであり、その重みは、入力データから所定次元数の第2特徴量データが抽出されるように後述の学習方法によって調整されている。なお各中間層752〜754を構成する各層は、それぞれ前層の全てと結合されている全結合層とすることが好ましい。
FIG. 13 is a diagram showing the configuration of the
入力層751は、第2入力データのうち機械角θmの正弦sinθm及び余弦cosθmを受容する入力層751aと、第2入力データのうち機械角θmの12倍角の正弦sin12θm及び余弦cos12θmを受容する入力層751bと、第2入力データのうち機械角θmの24倍角の正弦sin24θm及び余弦cos24θmを受容する入力層751cと、を備える。従って入力層751の次元数は、第2入力データの次元数と同じ6である。
第1中間層752は、入力層751aのみと結合された中間層752aと、入力層751bのみと結合された中間層752bと、入力層751cのみと結合された中間層752cと、を備える。第1中間層752の次元数は、入力層751の次元数と同じ6であるが、本発明はこれに限らない。
The first
第2中間層753は、中間層752aのみと結合された中間層753aと、中間層752bのみと結合された中間層753bと、中間層752cのみと結合された中間層753cと、を備える。第2中間層753の次元数は、入力層751の次元数と同じ6であるが、本発明はこれに限らない。
The second
第3中間層754は、第2中間層753と結合されている。第3中間層754の次元数、出力層755の次元数、及び第2特徴量データの次元数は、例えば第2中間層753の次元数と同じ6であるが、本発明はこれに限らない。
The third
第2予測デコーダ76は、第2特徴量データを受容する入力層761と、この入力層761と結合された中間層762と、この中間層762と結合され第2出力データを出力する出力層763と、を備える。入力層761の次元数は、第2特徴量データの次元数と同じである。中間層762は、所定次元数の多層パーセプトロンであり、その重みは、第2特徴量データから所定次元数の第2出力データが出力されるように後述の学習方法によって調整される。出力層763の次元数は、第2出力データの次元数と同じである。また第2出力データの次元数は、第1出力データの次元数と同じである。なお中間層762の各層は、前層の全てと結合されている全結合層とすることが好ましい。出力層763は、中間層762によって第2特徴量データから展開された第2出力データを出力する。
The
第2出力データは、第1出力データと同様、回転電機の内部の各部分における場の予測量を要素としたN次元の配列である。 Like the first output data, the second output data is an N-dimensional array having the predicted amount of the field in each part inside the rotary electric machine as an element.
図11に戻り、合成部77は、第1出力データと第2出力データとを合成し、出力データを出力する。より具体的には、合成部77は、第1出力データの各成分と第2出力データの各成分とを合算することによって出力データを出力する。
Returning to FIG. 11, the synthesizing
次に、以上のような場予測装置6Bの予測モデル7をコンピュータによって学習する学習方法の手順について、図14及び図15を参照しながら説明する。
Next, the procedure of the learning method for learning the prediction model 7 of the
図14は、第3の学習方法の手順を示すフローチャートである。
始めにS31では、作業者は、複数組の異なる入力データの下でコンピュータを用いた数値シミュレーションを行うことによって複数組の学習データを生成する。なおS21において複数組の学習データを生成する具体的な手順は、図7のS1における処理と同じであるので、詳細な説明は省略する。
FIG. 14 is a flowchart showing the procedure of the third learning method.
First, in S31, the worker generates a plurality of sets of learning data by performing a numerical simulation using a computer under a plurality of sets of different input data. Since the specific procedure for generating a plurality of sets of training data in S21 is the same as the process in S1 of FIG. 7, detailed description thereof will be omitted.
S32では、作業者は、S31で準備した複数組の入力データを第1入力データと第2入力データに分けるとともに、複数組の第1入力データと、複数組の第2入力データと、各入力データに基づいて生成された複数組の学習データと、を関連付けて記憶媒体に保存する。 In S32, the worker divides the plurality of sets of input data prepared in S31 into the first input data and the second input data, and at the same time, the plurality of sets of the first input data, the plurality of sets of the second input data, and each input. A plurality of sets of training data generated based on the data are associated with each other and stored in a storage medium.
S33では、作業者は、第1学習エンコーダ及び第1学習デコーダを備えるオートエンコーダを準備し、複数組の学習データを正解ラベルとして用いることによってこれら第1学習エンコーダ及び第1学習デコーダを学習する。ここで第1学習エンコーダの入力層の次元数及び第1学習デコーダの出力層の次元数は、S31で生成した学習データと同じ次元数とする。作業者は、このような第1学習エンコーダに学習データを入力した場合に第1学習デコーダから出力される出力データと、第1学習エンコーダへ入力した学習データとの差が所定値以下になるまで既知のアルゴリズムに基づいて第1学習エンコーダ及び第1学習デコーダを学習する。 In S33, the operator prepares an autoencoder including a first learning encoder and a first learning decoder, and learns the first learning encoder and the first learning decoder by using a plurality of sets of learning data as correct answer labels. Here, the number of dimensions of the input layer of the first learning encoder and the number of dimensions of the output layer of the first learning decoder are the same as the number of dimensions of the learning data generated in S31. The worker waits until the difference between the output data output from the first learning decoder and the learning data input to the first learning encoder when the learning data is input to the first learning encoder becomes equal to or less than a predetermined value. The first learning encoder and the first learning decoder are learned based on a known algorithm.
S34では、作業者は、S32で生成した複数組の第1入力データと、第2入力データと、各入力データに基づいて生成された複数組の学習データと、各学習データをS33における学習済みの第1学習エンコーダに入力した場合にこの第1学習エンコーダから出力される複数組の第1特徴量データと、を関連付けて記憶媒体に保存する。 In S34, the worker has already trained the plurality of sets of the first input data and the second input data generated in S32, the plurality of sets of training data generated based on each input data, and each training data in S33. A plurality of sets of first feature amount data output from the first learning encoder when input to the first learning encoder of the above are associated with each other and stored in a storage medium.
S35では、作業者は、第2学習エンコーダを準備し、複数組の第1特徴量データを正解ラベルとして用いることによってこの第2学習エンコーダを学習する。ここで第2学習エンコーダの入力層の次元数は第1入力データの次元数と同じとし、第2学習エンコーダの出力層の次元数は第1特徴量データの次元数と同じとする。作業者は、このような第2学習エンコーダに第1入力データを入力した場合にこの第2学習エンコーダから出力される出力データと、第2学習エンコーダに入力した第1入力データと関連付けて保存した第1特徴量データとの差が所定値以下になるまで第2学習エンコーダを学習する。 In S35, the operator prepares a second learning encoder and learns the second learning encoder by using a plurality of sets of first feature amount data as correct label. Here, the number of dimensions of the input layer of the second learning encoder is the same as the number of dimensions of the first input data, and the number of dimensions of the output layer of the second learning encoder is the same as the number of dimensions of the first feature amount data. The operator saves the output data output from the second learning encoder when the first input data is input to the second learning encoder in association with the first input data input to the second learning encoder. The second learning encoder is trained until the difference from the first feature amount data becomes equal to or less than a predetermined value.
S36では、作業者は、S35における学習済みの第2学習エンコーダと、S32における学習済みの第1学習デコーダと、を組み合わせることにより第1予測モデルを構築する。 In S36, the operator builds the first prediction model by combining the trained second learning encoder in S35 and the trained first learning decoder in S32.
S37では、作業者は、学習データを正解ラベルとして用いることによって、第2学習エンコーダのファインチューニング学習及び第1学習デコーダの転移学習を行う。より具体的には、作業者は、S36で構築した第1予測モデルの第2学習エンコーダに第1入力データを入力した場合に第1学習デコーダから出力される第1出力データと、第2学習エンコーダへの第1入力データと関連付けられた学習データとの差が所定値以下になるまで、第2学習エンコーダに対しては中間層の重みを凍結しないファインチューニング学習を行うとともに、第1学習デコーダに対しては中間層の重みを凍結した転移学習を行う。 In S37, the operator uses the learning data as the correct answer label to perform fine tuning learning of the second learning encoder and transfer learning of the first learning decoder. More specifically, the operator has the first output data output from the first learning decoder when the first input data is input to the second learning encoder of the first prediction model constructed in S36, and the second learning. Until the difference between the first input data to the encoder and the associated learning data becomes less than a predetermined value, the second learning encoder is subjected to fine tuning learning that does not freeze the weight of the intermediate layer, and the first learning decoder is used. For this, transfer learning is performed in which the weight of the intermediate layer is frozen.
S38では、作業者は、ファインチューニング学習後の第2学習エンコーダと、転移学習後の第1学習デコーダと、未学習の第2予測エンコーダ75と、未学習の第2予測デコーダ76と、合成部77と、を組み合わせることによって予測モデル7を構築する。より具体的には、作業者は、S37におけるファインチューニング学習後の第2学習エンコーダを第1予測エンコーダ72とし、S37における転移学習後の第1学習デコーダを第1予測デコーダ73とし、これら第1予測エンコーダ72と第1予測デコーダ73とを組み合わせることによって第1チャネル71を構築する。また作業者は、未学習の第2予測エンコーダ75と未学習の第2予測デコーダ76とを組み合わせることによって第2チャネル74を構築する。また作業者は、これら第1チャネル71と、第2チャネル74と、予め準備した合成部77と、を組み合わせることによって予測モデル7を構築する。
In S38, the operator uses the second learning encoder after fine tuning learning, the first learning decoder after transfer learning, the unlearned
S39では、作業者は、学習データを正解ラベルとして用いることによって、第1予測エンコーダ72及び第1予測デコーダ73の転移学習並びに第2予測エンコーダ75及び第2予測デコーダ76の学習を行う。より具体的には、作業者は、第1予測エンコーダ72に第1入力データを入力しかつ第2予測エンコーダ75に第1入力データと関連付けられた第2入力データを入力した場合に合成部77から出力される出力データと第1入力データと関連付けられた学習データとの差が所定値以下になるまで、第1予測エンコーダ72及び第1予測デコーダ73に対しては重みを凍結した転移学習を行うとともに、第2予測エンコーダ75及び第2予測デコーダ76に対しては重みを凍結せずに学習を行う。図11に示す予測モデル7には、以上のような工程を経て学習されたものが用いられる。
In S39, the operator uses the training data as a correct label to perform transfer learning of the
図15は、第4の学習方法の手順を示すフローチャートである。なお以下の図15の説明において、S51〜S53、S56〜S57に示す処理は、図14のS31〜S33、S38〜S39に示す処理と同じであるので、詳細な説明を省略する。 FIG. 15 is a flowchart showing the procedure of the fourth learning method. In the following description of FIG. 15, the processes shown in S51 to S53 and S56 to S57 are the same as the processes shown in S31 to S33 and S38 to S39 in FIG. 14, so detailed description thereof will be omitted.
S54では、作業者は、未学習の第2学習エンコーダを準備し、この第2学習エンコーダと学習済みの第1学習デコーダとを組み合わせることにより第1予測モデルを構築する。 In S54, the operator prepares an unlearned second learning encoder, and constructs a first prediction model by combining the second learning encoder and the trained first learning decoder.
S55では、作業者は、学習データを正解ラベルとして用いることによって、第2学習エンコーダの学習及び第1学習デコーダの転移学習を行う。より具体的には、作業者は、第2学習エンコーダに第1入力データを入力した場合に第1学習デコーダから出力される第1出力データと、第2学習エンコーダへの第1入力データと関連付けられた学習データとの差が所定値以下になるまで、第2学習エンコーダに対しては中間層の重みを凍結せずに学習を行うとともに、第1学習デコーダに対しては中間層の重みを凍結した転移学習を行う。 In S55, the operator uses the learning data as the correct answer label to perform learning of the second learning encoder and transfer learning of the first learning decoder. More specifically, the operator associates the first output data output from the first learning decoder when the first input data is input to the second learning encoder with the first input data to the second learning encoder. Until the difference from the obtained learning data becomes less than a predetermined value, the second learning encoder is trained without freezing the weight of the intermediate layer, and the weight of the intermediate layer is applied to the first learning decoder. Perform frozen transfer learning.
なお上記第3実施形態では、第3及び第4の学習方法の手順について回転電機の場予測装置6Bの予測モデル7を例に説明したが、本発明はこれに限らない。上述の第3及び第4の学習方法は、回転電機の場予測装置6Bに限らず、一般的な場予測装置にも適用することができる。ここで一般的な場予測装置とは、何等かのエネルギ源(熱源、電流等)から供給されるエネルギ(熱、電場、磁場等)が伝達する構造物の内部における場の量をニューラルネットワークによって構築される予測モデルで予測するものをいう。またこのような予測モデルを、エネルギ源の状態に関する情報を含む第1入力データが入力されると第1特徴量データを出力する第1予測エンコーダと、第1特徴量データが入力されると構造物の内部における場の予測量に関する情報を含む第1出力データを出力する第1予測デコーダと、第1入力データに基づいて生成される第2入力データが入力されると第2特徴量データを出力する第2予測エンコーダと、第2特徴量データが入力されると構造物の内部における場の予測量に関する情報を含む第2出力データを出力する第2予測デコーダと、第1出力データと第2出力データとを合成する合成部と、によって構築した場合、これら第1予測エンコーダ、第1予測デコーダ、第2予測エンコーダ、及び第2予測デコーダは、上述の第3及び第4の学習方法と同じ手順によって学習することができる。
In the third embodiment, the procedures of the third and fourth learning methods have been described by taking the prediction model 7 of the
本実施形態に係る場予測装置6Bによれば、以下の効果を奏する。
(14)回転電機2の内部における回転子21は、周期的に変動する回転磁場の下で回転する。このため、回転電機2の内部に形成される場の量は、直流成分及び基本波成分の他、回転子21や固定子22の構造に起因する空間的な周波数や、電源電流の時間変化に起因する時間的な周波数等の様々な周波数の下で変動する成分を含んだものとなっている。これに対し場予測装置6Bでは、予測モデル7を、第1予測エンコーダ72及び第1予測デコーダ73を組み合わせた第1チャネル71と、第2予測エンコーダ75及び第2予測デコーダ76を組み合わせた第2チャネル74と、これら第1チャネル71及び第2チャネル74の出力を合成する合成部77と、によって構成する。また第1チャネル71への第1入力データには、d軸電流、q軸電流、電気角の正弦及び余弦を含め、第2チャネル74への第2入力データには、機械角の整数倍の正弦及び余弦を含める。これにより、第1チャネル71では回転電機2の内部に形成される場の量のうち直流成分及び基本波成分を予測し、第2チャネル74では回転電機2の内部に形成される場の量のうち固定子22や回転子21の構造に起因する周波数成分を予測することができる。これにより、回転電機2の内部の場の量を、シミュレーションを経ることなく速やかかつ精度良く予測することができる。
According to the
(14) The
本実施形態に係る第3の学習方法によれば、以下の効果を奏する。
(15)第3の学習方法によれば、回転電機2の内部に形成される場の量のうち大部分を占める直流成分及び基本波成分を予測する第1チャネル71を先に学習した後、残りの周波数成分を予測する第2チャネル74を学習する。これにより、回転電機2の内部の場の量の予測精度の高い場予測装置6Bを構築することができる。
According to the third learning method according to the present embodiment, the following effects are obtained.
(15) According to the third learning method, after first learning the
以上、本発明の第1〜第3実施形態について説明したが、本発明はこれに限らない。本発明の趣旨の範囲内で、細部の構成を適宜変更してもよい。 Although the first to third embodiments of the present invention have been described above, the present invention is not limited to this. Within the scope of the gist of the present invention, the detailed configuration may be changed as appropriate.
1…回転電機制御システム
2…回転電機
21…回転子
22…固定子
3…電流センサ
4…回転検出器
5…制御装置
6,6A,6B…場予測装置
61,61B…入力データ生成部
62,62A…予測モデル
621,621A…予測エンコーダ
622,622A…予測デコーダ
63,63A…磁束密度分布算出部
64…制御パラメータ算出部
7…予測モデル
71…第1チャネル
72…第1予測エンコーダ
73…第1予測デコーダ
74…第2チャネル
75…第2予測エンコーダ
76…第2予測デコーダ
77…合成部
1 ... Rotating
Claims (8)
前記予測モデルは、前記エネルギ源の状態に関する情報を含む入力データが入力されると特徴量を出力する予測エンコーダと、前記特徴量が入力されると前記構造物の内部における場の予測量に関する情報を含む出力データを出力する予測デコーダと、を備え、
複数組の異なる入力データの下でシミュレーションを行うことにより前記構造物の内部における場の予測量を算出し、複数組の学習データを生成する工程と、
前記入力データと前記学習データとを関連付けて保存する工程と、
第1学習エンコーダ及び第1学習デコーダを備えるオートエンコーダを準備し、前記第1学習エンコーダに前記学習データを入力した場合に前記第1学習デコーダから出力される出力データと前記学習データとの差が所定値以下になるまで前記第1学習エンコーダ及び前記第1学習デコーダを学習する工程と、
学習済みの前記第1学習デコーダに基づいて前記予測デコーダを構築する工程と、を備えることを特徴とする場予測装置の学習方法。 It is a learning method of a field prediction device that uses a computer to learn a field prediction device that predicts the amount of field inside a structure to which energy supplied from an energy source is transmitted by a prediction model constructed by a neural network.
The prediction model includes a prediction encoder that outputs a feature amount when input data including information on the state of the energy source is input, and information on a field prediction amount inside the structure when the feature amount is input. Equipped with a predictive decoder that outputs output data, including
A process of calculating the predicted amount of the field inside the structure by performing a simulation under a plurality of sets of different input data and generating a plurality of sets of training data.
The process of associating and storing the input data and the learning data, and
When an auto encoder including a first learning encoder and a first learning decoder is prepared and the learning data is input to the first learning encoder, the difference between the output data output from the first learning decoder and the learning data is The step of learning the first learning encoder and the first learning decoder until the value becomes equal to or less than a predetermined value, and
A learning method of a field prediction device comprising a step of constructing the prediction decoder based on the learned first learning decoder.
第2学習エンコーダを準備し、当該第2学習エンコーダに前記入力データを入力した場合に当該第2学習エンコーダから出力される第2特徴量と前記入力データと関連付けられた前記第1特徴量との差が所定値以下になるまで前記第2学習エンコーダを学習する工程と、
学習済みの前記第2学習エンコーダに基づいて前記予測エンコーダを構築する工程と、を備えることを特徴とする請求項1に記載の場予測装置の学習方法。 The input data, the learning data associated with the input data, and the first feature amount output from the first learning encoder when the learning data is input to the trained first learning encoder. The process of associating and saving,
When the second learning encoder is prepared and the input data is input to the second learning encoder, the second feature amount output from the second learning encoder and the first feature amount associated with the input data The step of learning the second learning encoder until the difference becomes equal to or less than a predetermined value, and
The learning method of the field prediction apparatus according to claim 1, further comprising a step of constructing the prediction encoder based on the learned second learning encoder.
前記予測エンコーダに前記入力データを入力した場合に前記予測デコーダから出力される出力データと前記入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記予測エンコーダに対しては重みを凍結しないファインチューニング学習を行うとともに前記予測デコーダに対しては重みを凍結した転移学習を行うことを特徴とする請求項2に記載の場予測装置の学習方法。 A step of constructing the prediction model by combining the trained second learning encoder as the prediction encoder, the trained first learning decoder as the prediction decoder, and the prediction encoder and the prediction decoder.
Until the difference between the output data output from the prediction decoder and the training data associated with the input data when the input data is input to the prediction encoder becomes a predetermined value or less, the prediction encoder is used. The learning method of the field prediction device according to claim 2, wherein fine tuning learning that does not freeze the weights is performed, and transfer learning that freezes the weights is performed on the prediction decoder.
前記予測エンコーダに前記入力データを入力した場合に前記予測デコーダから出力される出力データと前記入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記予測エンコーダに対しては重みを凍結せずに学習を行うとともに前記予測デコーダに対しては重みを凍結した転移学習を行うことを特徴とする請求項1に記載の場予測装置の学習方法。 A step of constructing the prediction model by using the trained first learning decoder as the prediction decoder and combining the prediction decoder and the prediction encoder.
Until the difference between the output data output from the prediction decoder and the training data associated with the input data when the input data is input to the prediction encoder becomes a predetermined value or less, the prediction encoder is used. The learning method of the field prediction device according to claim 1, wherein learning is performed without freezing the weights, and transfer learning with the weights frozen is performed on the prediction decoder.
前記予測モデルは、前記エネルギ源の状態に関する情報を含む第1入力データが入力されると第1特徴量を出力する第1予測エンコーダと、前記第1特徴量が入力されると前記構造物の内部における場の予測量に関する情報を含む第1出力データを出力する第1予測デコーダと、前記第1入力データに基づいて生成される第2入力データが入力されると第2特徴量を出力する第2予測エンコーダと、前記第2特徴量が入力されると前記構造物の内部における場の予測量に関する情報を含む第2出力データを出力する第2予測デコーダと、前記第1出力データと前記第2出力データとを合成する合成部と、を備え、
複数組の異なる前記第1入力データの下でシミュレーションを行うことによって前記構造物の内部における場の予測量を算出し、複数の学習データを生成する工程と、
前記第1入力データと前記学習データとを関連付けて保存する工程と、
第1学習エンコーダ及び第1学習デコーダを備えるオートエンコーダを準備し、前記第1学習エンコーダに前記学習データを入力した場合に前記第1学習デコーダから出力される出力データと前記学習データとの差が所定値以下になるまで前記第1学習エンコーダ及び前記第1学習デコーダを学習する工程と、
学習済みの前記第1学習デコーダに基づいて前記第1予測デコーダを構築する工程と、を備えることを特徴とする場予測装置の学習方法。 It is a learning method of a field prediction device that uses a computer to learn a field prediction device that predicts the amount of field inside a structure to which energy supplied from an energy source is transmitted by a prediction model constructed by a neural network.
The prediction model includes a first prediction encoder that outputs a first feature amount when first input data including information on the state of the energy source is input, and the structure when the first feature amount is input. A first prediction decoder that outputs first output data including information on the predicted amount of the field inside, and a second feature amount that outputs the second feature amount when the second input data generated based on the first input data is input. A second prediction encoder, a second prediction decoder that outputs second output data including information on a field prediction amount inside the structure when the second feature amount is input, the first output data, and the above. It is equipped with a compositing unit that synthesizes the second output data.
A step of calculating a predicted amount of a field inside the structure by performing a simulation under a plurality of sets of different first input data, and generating a plurality of learning data.
A step of associating the first input data with the learning data and saving the data,
When an auto encoder including a first learning encoder and a first learning decoder is prepared and the learning data is input to the first learning encoder, the difference between the output data output from the first learning decoder and the learning data is The step of learning the first learning encoder and the first learning decoder until the value becomes equal to or less than a predetermined value, and
A learning method of a field prediction device, which comprises a step of constructing the first prediction decoder based on the learned first learning decoder.
第2学習エンコーダを準備し、当該第2学習エンコーダに前記第1入力データを入力した場合に当該第2学習エンコーダから出力される出力データと前記第1入力データと関連付けられた前記第1特徴量との差が所定値以下になるまで前記第2学習エンコーダを学習する工程と、
学習済みの前記第2学習エンコーダに基づいて前記第1予測エンコーダを構築する工程と、を備えることを特徴とする請求項5に記載の場予測装置の学習方法。 The first feature output from the first learning encoder when the first input data, the learning data associated with the first input data, and the learning data are input to the trained first learning encoder. The process of associating and storing the amount and
When a second learning encoder is prepared and the first input data is input to the second learning encoder, the output data output from the second learning encoder and the first feature amount associated with the first input data are associated with the first input data. The step of learning the second learning encoder until the difference between the two is equal to or less than a predetermined value, and
The learning method of the field prediction apparatus according to claim 5, further comprising a step of constructing the first prediction encoder based on the learned second learning encoder.
前記第1予測モデルの前記第2学習エンコーダに前記第1入力データを入力した場合に前記第1学習デコーダから出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第2学習エンコーダに対しては重みを凍結しないファインチューニング学習を行うとともに前記第1学習デコーダに対しては重みを凍結した転移学習を行う工程と、
ファインチューニング学習後の前記第2学習エンコーダを前記第1予測エンコーダとし、転移学習後の前記第1学習デコーダを前記第1予測デコーダとし、これら前記第1予測エンコーダ及び前記第1予測デコーダと、前記第2予測エンコーダと、前記第2予測デコーダと、前記合成部と、を組み合わせることによって前記予測モデルを構築する工程と、
前記第1予測エンコーダに前記第1入力データを入力しかつ前記第2予測エンコーダに前記第1入力データに基づいて生成される前記第2入力データを入力した場合に前記合成部から出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第1予測エンコーダ及び前記第1予測デコーダに対しては重みを凍結した転移学習を行い、前記第2予測エンコーダ及び前記第2予測デコーダに対しては重みを凍結せずに学習を行う工程と、を備えることを特徴とする請求項6に記載の場予測装置の学習方法。 A process of constructing a first prediction model by combining the trained second learning encoder and the trained first learning decoder, and
When the first input data is input to the second learning encoder of the first prediction model, the difference between the output data output from the first learning decoder and the learning data associated with the first input data is A step of performing fine tuning learning in which the weights are not frozen for the second learning encoder and a transfer learning in which the weights are frozen for the first learning decoder until the value becomes equal to or less than a predetermined value.
The second learning encoder after fine tuning learning is referred to as the first prediction encoder, the first learning decoder after transfer learning is referred to as the first prediction decoder, and the first prediction encoder, the first prediction decoder, and the above. A step of constructing the prediction model by combining the second prediction encoder, the second prediction decoder, and the synthesis unit.
Output output from the synthesis unit when the first input data is input to the first prediction encoder and the second input data generated based on the first input data is input to the second prediction encoder. Until the difference between the data and the training data associated with the first input data becomes a predetermined value or less, the first prediction encoder and the first prediction decoder are subjected to weight-frozen transfer learning, and the transfer learning is performed. The learning method of the field prediction device according to claim 6, further comprising a step of learning the second prediction encoder and the second prediction decoder without freezing the weights.
前記第1予測エンコーダに前記第1入力データを入力した場合に前記第1学習デコーダから出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第1予測エンコーダに対しては重みを凍結せずに学習を行うとともに前記第1学習デコーダに対しては重みを凍結した転移学習を行う工程と、
転移学習後の前記第1学習デコーダを前記第1予測デコーダとし、当該第1予測デコーダと、学習済みの前記第1予測エンコーダと、前記第2予測エンコーダと、前記第2予測デコーダと、前記合成部と、を組み合わせることによって前記予測モデルを構築する工程と、
前記第1予測エンコーダに前記第1入力データを入力しかつ前記第2予測エンコーダに前記第1入力データに基づいて生成される前記第2入力データを入力した場合に前記合成部から出力される出力データと前記第1入力データと関連付けられた前記学習データとの差が所定値以下になるまで、前記第1予測エンコーダ及び前記第1予測デコーダに対しては重みを凍結した転移学習を行い、前記第2予測エンコーダ及び前記第2予測デコーダに対しては重みを凍結せずに学習を行う工程と、を備えることを特徴とする請求項5に記載の場予測装置の学習方法。 A step of constructing a first prediction model by combining the first prediction encoder and the trained first learning decoder, and
Until the difference between the output data output from the first learning decoder and the learning data associated with the first input data when the first input data is input to the first prediction encoder becomes a predetermined value or less. A step of learning the first predictive encoder without freezing the weights and performing transfer learning with the weights frozen for the first learning decoder.
The first learning decoder after transfer learning is used as the first prediction decoder, and the first prediction decoder, the trained first prediction encoder, the second prediction encoder, the second prediction decoder, and the synthesis The process of constructing the prediction model by combining the parts and
Output output from the synthesis unit when the first input data is input to the first prediction encoder and the second input data generated based on the first input data is input to the second prediction encoder. Until the difference between the data and the training data associated with the first input data becomes a predetermined value or less, the first prediction encoder and the first prediction decoder are subjected to weight-frozen transfer learning, and the transfer learning is performed. The learning method of the field prediction device according to claim 5, further comprising a step of learning the second prediction encoder and the second prediction decoder without freezing the weights.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020031842A JP2021135775A (en) | 2020-02-27 | 2020-02-27 | Learning method of field prediction device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020031842A JP2021135775A (en) | 2020-02-27 | 2020-02-27 | Learning method of field prediction device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021135775A true JP2021135775A (en) | 2021-09-13 |
Family
ID=77661345
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020031842A Pending JP2021135775A (en) | 2020-02-27 | 2020-02-27 | Learning method of field prediction device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021135775A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7553881B1 (en) | 2023-03-02 | 2024-09-19 | 日本製鉄株式会社 | Estimation device, estimation model creation device, estimation method, estimation model creation method, and program |
-
2020
- 2020-02-27 JP JP2020031842A patent/JP2021135775A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7553881B1 (en) | 2023-03-02 | 2024-09-19 | 日本製鉄株式会社 | Estimation device, estimation model creation device, estimation method, estimation model creation method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021135774A (en) | Field prediction unit for rotation electrical machine, learning method of prediction model and rotation electrical machine control system | |
Mirimani et al. | An online method for static eccentricity fault detection in axial flux machines | |
Xiang et al. | Practical modeling and comprehensive system identification of a BLDC motor | |
Šmídl et al. | Direct speed control of a PMSM drive using SDRE and convex constrained optimization | |
US11288409B2 (en) | Method and system for designing electrical machines using reinforcement learning | |
Farooq et al. | Analytical modeling approach to detect magnet defects in permanent-magnet brushless motors | |
CN110086383B (en) | Model prediction control method and device for twelve-phase driving system | |
JP2021135775A (en) | Learning method of field prediction device | |
CN110073590A (en) | Control system for motor circuit | |
Mossa et al. | Effective model predictive direct torque control for an induction motor drive | |
CN108521246B (en) | Method and device for predictive control of current of single current sensor of permanent magnet synchronous motor | |
Zhang et al. | A position and speed controller tuning method of permanent magnet synchronous linear motor based on gain identification | |
Solodkiy et al. | Detection of stator inter-turn short circuit in three-phase induction motor using current coordinate transformation | |
Hajmohammadi et al. | Design considerations of multi-turn wound-rotor resolvers | |
CN115001335A (en) | Bearing-free flux switching motor rotor suspension control method based on neural network | |
Amor et al. | Adaptive nonlinear torque control of a switched reluctance motor via flux observation | |
Khaliq et al. | Indirect vector control of linear induction motors using space vector pulse width modulation | |
Kimpara et al. | A new synchronous machine modeling using the field reconstruction method | |
CN117544030B (en) | Sensorless control method and sensorless control system for permanent magnet synchronous motor for reducing estimation complexity | |
Mossa et al. | A novel sensorless direct torque control for a doubly fed induction machine | |
Barreng et al. | Parameter Estimation in a Permanent Magnet Synchronous Motor | |
Zare et al. | Improving the performance of helical motion resolver based on accurate modelling of longitudinal end effect | |
Savarapu et al. | Real-Time Implementation of Brain Emotional Controller for Sensorless Induction Motor Drive with Adaptive System | |
Boccaletti et al. | Parametric analysis of axial flux wind generators focused on total harmonic distortion evaluation | |
Govindaraj et al. | Simulation modelling of sensor less speed control of BLDC motor using artificial neural network |