JP2020061909A - Reinforcement learning program, reinforcement learning method, and reinforcement learning device - Google Patents
Reinforcement learning program, reinforcement learning method, and reinforcement learning device Download PDFInfo
- Publication number
- JP2020061909A JP2020061909A JP2018193537A JP2018193537A JP2020061909A JP 2020061909 A JP2020061909 A JP 2020061909A JP 2018193537 A JP2018193537 A JP 2018193537A JP 2018193537 A JP2018193537 A JP 2018193537A JP 2020061909 A JP2020061909 A JP 2020061909A
- Authority
- JP
- Japan
- Prior art keywords
- generator
- regions
- reinforcement learning
- validity information
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Control Of Eletrric Generators (AREA)
Abstract
Description
本発明は、強化学習プログラム、強化学習方法、および強化学習装置に関する。 The present invention relates to a reinforcement learning program, a reinforcement learning method, and a reinforcement learning device.
従来、自然エネルギーを利用する1以上の発電機を含む発電システムを、強化学習により制御することがある。強化学習では、例えば、発電機に関する状態値が取りうる領域ごとに、発電機に対する指令値の有効性を示す有効値を対応付けて表すテーブルが利用される。テーブルは、例えば、Qテーブルである。強化学習では、例えば、指令値についての有効値を推定する学習が繰り返し行われ、テーブルが更新される。 Conventionally, a power generation system including one or more generators that utilize natural energy may be controlled by reinforcement learning. In the reinforcement learning, for example, a table in which valid values indicating the validity of the command value for the generator are associated with each other for each region where the state value related to the generator can be used. The table is, for example, a Q table. In the reinforcement learning, for example, learning for estimating an effective value for the command value is repeatedly performed, and the table is updated.
しかしながら、従来技術では、強化学習における処理量の増大化を招くことがある。例えば、発電機に関する状態値が取りうる領域の数が増加するほど、指令値についての有効値を推定する学習が行われる回数が増加してしまい、強化学習における処理量の増大化を招く。 However, in the conventional technique, the processing amount in reinforcement learning may be increased. For example, as the number of regions in which the state value relating to the generator can be taken increases, the number of times of learning for estimating the effective value of the command value increases, resulting in an increase in the amount of processing in reinforcement learning.
1つの側面では、本発明は、強化学習における処理量の低減化を図ることを目的とする。 In one aspect, the present invention aims to reduce the amount of processing in reinforcement learning.
1つの実施態様によれば、発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う強化学習プログラム、強化学習方法、および強化学習装置が提案される。 According to one embodiment, the learning is performed using the validity information indicating the validity of each command value for the generator in each of the plurality of regions in which the state value related to the generator can be obtained, and the observation is performed. Effectiveness of each command value for the generator in a region in which two or more continuous regions are combined among the plurality of regions based on a characteristic function of the state value for the generator with reference to the state value for the generator Is generated, and learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions. A reinforcement learning program to be performed, a reinforcement learning method, and a reinforcement learning device are proposed.
一態様によれば、強化学習における処理量の低減化を図ることが可能になる。 According to one aspect, it is possible to reduce the processing amount in reinforcement learning.
以下に、図面を参照して、本発明にかかる強化学習プログラム、強化学習方法、および強化学習装置の実施の形態を詳細に説明する。 Hereinafter, embodiments of a reinforcement learning program, a reinforcement learning method, and a reinforcement learning apparatus according to the present invention will be described in detail with reference to the drawings.
(実施の形態にかかる強化学習方法の一実施例)
図1は、実施の形態にかかる強化学習方法の一実施例を示す説明図である。強化学習装置100は、1以上の発電機を含む発電システムに強化学習を適用し、1以上の発電機を含む発電システムを制御するコンピュータである。発電機は、例えば、風力発電機、または、火力発電機などである。
(One Example of Reinforcement Learning Method According to Embodiment)
FIG. 1 is an explanatory diagram illustrating an example of the reinforcement learning method according to the embodiment. The
強化学習では、例えば、1以上の発電機に関する状態値の組み合わせが取りうる複数の領域のそれぞれの領域における、1以上の発電機に対する指令値の組み合わせごとの有効性を示す有効値を対応付けて表すテーブルが利用される。テーブルは、例えば、Qテーブルである。強化学習では、例えば、発電機に関する状態値を観測し、発電機に対する指令値を決定し、決定した指令値を発電機に入力し、観測した状態値を含む領域における、入力した指令値の有効性を示す有効値を推定する学習が繰り返し行われ、テーブルが更新される。強化学習は、例えば、Q学習やSARSAなどにより実現される。 In the reinforcement learning, for example, the effective value indicating the effectiveness of each combination of the command values for the one or more generators in each of the plurality of regions in which the combination of the state values of the one or more generators can be associated is associated A table to represent is used. The table is, for example, a Q table. In reinforcement learning, for example, the state value related to the generator is observed, the command value for the generator is determined, the determined command value is input to the generator, and the input command value is valid in the area including the observed state value. The learning for estimating the effective value indicating the sex is repeated and the table is updated. Reinforcement learning is realized by, for example, Q learning or SARSA.
ここで、強化学習における処理量の増大化を招いてしまう場合が考えられる。例えば、1以上の発電機に関する状態値の組み合わせが取りうる領域の数が増加するほど、学習が行われる回数が増加してしまい、強化学習における処理量の増大化を招く。具体的には、状態値を細かく分割して領域を設定すると、領域の数が増加してしまう。また、具体的には、発電機の数が増加すると、領域の数が増加してしまう。このため、強化学習における処理量の低減化を図ることが望まれる。 Here, it is conceivable that the amount of processing in reinforcement learning may increase. For example, as the number of regions that can be combined by the state values of one or more generators increases, the number of times learning is performed increases, resulting in an increase in the amount of processing in reinforcement learning. Specifically, if the state values are finely divided to set areas, the number of areas increases. Further, specifically, as the number of generators increases, the number of areas also increases. Therefore, it is desired to reduce the amount of processing in reinforcement learning.
これに対し、領域の数を減少させ、強化学習における処理量の低減化を図ることが考えられる。例えば、状態値を粗く分割して領域を設定し、領域の数を減少させ、強化学習における処理量の低減化を図ることが考えられる。しかしながら、常時、粗く分割された領域を用いると、どのような状態値の場合にどのような指令値を出力することが好ましいかを詳細に検証することができず、発電システムに対して適切な制御を行うことができないことがある。適切な制御は、例えば、所定の閾値を超えない範囲で、発電システムの発電量の最大化を図る制御である。 On the other hand, it is conceivable to reduce the number of regions to reduce the amount of processing in reinforcement learning. For example, it is conceivable that the state value is roughly divided to set regions, the number of regions is reduced, and the processing amount in reinforcement learning is reduced. However, if a coarsely divided area is used at all times, it is not possible to verify in detail what kind of command value should be output in what kind of state value, and it is appropriate for the power generation system. It may not be possible to control. The appropriate control is, for example, control that maximizes the amount of power generation of the power generation system within a range that does not exceed a predetermined threshold value.
したがって、領域の数を動的に変更することにより、強化学習における処理量の低減化を図ることが考えられる。例えば、何らかのタイミングで、2以上の領域を結合し、領域の数を減少させることが考えられる。しかしながら、2以上の領域を結合した領域における、1以上の発電機に対する指令値の組み合わせごとの有効性を示す有効値を、どのように設定することが好ましいかが分からなければ、発電システムに対して適切な制御を行うことが難しくなる。 Therefore, it is possible to reduce the processing amount in the reinforcement learning by dynamically changing the number of regions. For example, it is possible to combine two or more regions and reduce the number of regions at some timing. However, if it is not clear how to set an effective value that indicates the effectiveness of each combination of command values for one or more generators in a region that combines two or more regions, It becomes difficult to perform appropriate control.
そこで、本実施の形態では、強化学習において、1以上の発電機に関する状態値の組み合わせが取りうる領域の数を動的に変更可能にし、領域の数を動的に変更したことに応じて適切と判断される有効値を設定し直すことができる強化学習方法について説明する。かかる強化学習方法によれば、強化学習における処理量の低減化を図ることができる。 Therefore, in the present embodiment, in reinforcement learning, it is possible to dynamically change the number of regions that can be taken by a combination of state values related to one or more generators, and it is appropriate according to the number of regions being dynamically changed. A reinforcement learning method capable of resetting a valid value determined as follows will be described. According to this reinforcement learning method, it is possible to reduce the amount of processing in reinforcement learning.
図1の例では、発電システムに含まれる発電機は1つである。発電機に関する状態値は、例えば、発電機からの出力電力、および、発電機に対する自然エネルギーの供給量に関する環境値などである。環境値は、例えば、風速や燃料使用量などである。発電機に対する指令値は、例えば、発電機の電源のONとOFFとを切り替える指令値である。発電機に対する指令値は、例えば、発電機における自然エネルギーの利用効率を変更する指令値である。 In the example of FIG. 1, the number of generators included in the power generation system is one. The state value related to the generator is, for example, output power from the generator and an environmental value related to the amount of natural energy supplied to the generator. The environmental value is, for example, the wind speed or the amount of fuel used. The command value for the generator is, for example, a command value for switching the power supply of the generator between ON and OFF. The command value for the generator is, for example, a command value for changing the utilization efficiency of natural energy in the generator.
図1において、強化学習装置100は、発電機に関する状態値が取りうる複数の領域のそれぞれの領域における発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行う。領域は、例えば、区間または区間の組み合わせである。有効性情報は、例えば、Qテーブルのレコードである。有効値は、例えば、Q値である。強化学習装置100は、例えば、区間A1に有効値G1を対応付けた有効性情報と、区間A2に有効値G2を対応付けた有効性情報と、区間A3に有効値G3を対応付けた有効性情報とを含むQテーブルを利用して学習を行う。強化学習装置100は、学習を行った結果、Qテーブルを更新する。
In FIG. 1, the
強化学習装置100は、複数の領域のうち連続する2以上の領域を結合した領域における発電機に対する指令値ごとの有効性を示す有効性情報を生成する。強化学習装置100は、例えば、観測した発電機に関する状態値を参照し、発電機に関する状態値についての特性関数に基づいて、結合した領域についての有効性情報を生成する。強化学習装置100は、具体的には、区間A2と区間A3とを結合した区間Aaにおける、指令値の有効性を示す有効値Gaを算出し、区間Aaに有効値Gaを対応付けた有効性情報を生成する。そして、強化学習装置100は、区間A2に有効値G2を対応付けた有効性情報と、区間A3に有効値G3を対応付けた有効性情報とを、区間Aaに有効値Gaを対応付けた有効性情報に置き換えて、Qテーブルを更新する。
The
強化学習装置100は、結合した領域についての有効性情報、および、複数の領域のうち2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う。強化学習装置100は、例えば、区間A1に有効値G1を対応付けた有効性情報、および、区間A2と区間A3とを結合した区間Aaに有効値Gaを対応付けた有効性情報を含むQテーブルを利用して学習を行う。強化学習装置100は、学習を行った結果、Qテーブルを更新する。
The
これにより、強化学習装置100は、2以上の領域を結合し、有効性情報を対応付けておく領域の数を動的に減少させることができる。このため、強化学習装置100は、学習を行って更新する対象である有効性情報の数を減少させ、強化学習にかかる処理量の低減化を図ることができる。また、強化学習装置100は、有効性情報を生成する際、有効値を0で初期化したり、有効値をランダムに設定したりはせずに、特性関数に基づいて有効値を設定することができる。このため、強化学習装置100は、生成する有効性情報が、発電機に対する指令値ごとの有効性を精度よく示すようにすることができ、発電システムに対して適切な制御を行いやすくすることができる。
Thereby, the
ここでは、何らかのタイミングで、2以上の領域のそれぞれの領域についての有効性情報を、2以上の領域を結合した領域についての有効性情報に置き換えて、有効性情報を対応付けておく領域の数を動的に減少させる場合について説明したが、これに限らない。例えば、何らかのタイミングで、2以上の領域を結合した領域についての有効性情報を、2以上の領域のそれぞれの領域についての有効性情報に置き換えて、領域の数を動的に増加させる場合があってもよい。これにより、強化学習装置100は、どのような状態値の場合にどのような指令値を出力することが好ましいかを細分化して実行することができる。2以上の領域を結合した領域についての有効性情報を、2以上の領域のそれぞれの領域についての有効性情報に置き換える場合については、具体的には、図12を用いて後述する。
Here, the number of areas to which the validity information is associated by replacing the validity information about each of the two or more areas with the validity information about the area obtained by combining the two or more areas at some timing. However, the present invention is not limited to this. For example, at some timing, the validity information about a region obtained by combining two or more regions may be replaced with the validity information about each of the two or more regions to dynamically increase the number of regions. May be. Thereby, the
ここでは、発電システムに含まれる発電機が1つである場合について説明したが、これに限らない。例えば、発電システムに含まれる発電機が複数ある場合があってもよい。この場合、例えば、強化学習装置100は、発電機の状態値の組み合わせが取りうる複数の領域のうち連続する2以上の領域を結合した領域についての有効性情報を生成する。そして、強化学習装置100は、2以上の領域のそれぞれの領域についての有効性情報を、結合した領域についての有効性情報に置き換え、有効性情報を対応付けておく領域の数を動的に減少させる。これにより、強化学習装置100は、強化学習にかかる処理量の低減化を図ることができる。発電システムに含まれる発電機が複数ある場合については、図11および図12を用いて後述する。
Here, the case where the power generation system includes only one generator has been described, but the present invention is not limited to this. For example, there may be a plurality of generators included in the power generation system. In this case, for example, the
ここでは、発電システムに含まれる発電機の種類を特定せずに、強化学習装置100について説明した。これに対し、例えば、発電システムに含まれる発電機が、風力発電機である場合があってもよい。発電システムに含まれる発電機が、風力発電機である場合については、具体的には、図11および図12を用いて後述する。また、例えば、発電システムに含まれる発電機が、火力発電機である場合があってもよい。発電システムに含まれる発電機が、火力発電機である場合については、具体的には、図15を用いて後述する。また、例えば、発電システムが、風力発電機と火力発電機との両方を含む場合があってもよい。
Here, the
ここでは、2以上の領域を結合した領域についての有効性情報を生成するタイミングを限定せずに、強化学習装置100について説明した。これに対し、例えば、強化学習装置100が、観測した需要電力が閾値以下である場合に、結合した領域についての有効性情報を生成する場合があってもよい。また、例えば、強化学習装置100が、観測した需要電力が閾値を超える場合に、結合した領域についての有効性情報を生成する場合があってもよい。
Here, the
(発電システム200の一例)
次に、図2を用いて、図1に示した強化学習装置100を適用した、発電システム200の一例について説明する。
(Example of power generation system 200)
Next, an example of the
図2は、発電システム200の一例を示す説明図である。図2において、発電システム200は、強化学習装置100と、1以上の発電機201とを含む。
FIG. 2 is an explanatory diagram showing an example of the
発電システム200において、強化学習装置100と1以上の発電機201は、有線または無線のネットワーク210を介して接続される。ネットワーク210は、例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどである。
In the
発電機201は、例えば、風力エネルギーを利用し、風車を用いて発電を行う機械である。発電機201は、例えば、風車から伝達される風車トルクを用いて発電を行う。発電機201は、発電機201に関する状態値を観測する計測機が設けられる。計測機は、例えば、センサ装置を有する。センサ装置は、加速度センサ、地磁気センサ、光センサ、振動センサ、電力センサ、電圧センサ、および、電流センサなどの少なくともいずれかを有してもよい。発電機201は、例えば、火力エネルギーを利用し、タービンを用いて発電を行う機械であってもよい。
The
強化学習装置100は、発電システム200に強化学習を適用し、発電システム200を制御する。強化学習装置100は、例えば、発電システム200に含まれる1以上の発電機201に対する指令値を制御する。強化学習装置100は、具体的には、発電機201に設けられた計測機から、発電機201に関する状態値を取得する。強化学習装置100は、取得した状態値と、有効性情報を含むテーブルとに基づいて、発電機201に対する指令値を決定して出力する。強化学習装置100は、指令値を出力した結果に応じて、テーブルを更新する。強化学習装置100は、例えば、サーバ、PC(Personal Computer)、マイコン、PLC(Programmable Logic Controller)などである。
The
(強化学習装置100のハードウェア構成例)
次に、図3を用いて、強化学習装置100のハードウェア構成例について説明する。
(Example of Hardware Configuration of Reinforcement Learning Device 100)
Next, a hardware configuration example of the
図3は、強化学習装置100のハードウェア構成例を示すブロック図である。図3において、強化学習装置100は、CPU(Central Processing Unit)301と、メモリ302と、ネットワークI/F(Interface)303と、記録媒体I/F304と、記録媒体305とを有する。また、各構成部は、バス300によってそれぞれ接続される。
FIG. 3 is a block diagram showing a hardware configuration example of the
ここで、CPU301は、強化学習装置100の全体の制御を司る。メモリ302は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU301のワークエリアとして使用される。メモリ302に記憶されるプログラムは、CPU301にロードされることで、コーディングされている処理をCPU301に実行させる。
Here, the
ネットワークI/F303は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。他のコンピュータは、例えば、発電機201である。そして、ネットワークI/F303は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F303には、例えば、モデムやLANアダプタなどを採用することができる。
The network I /
記録媒体I/F304は、CPU301の制御にしたがって記録媒体305に対するデータのリード/ライトを制御する。記録媒体I/F304は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体305は、記録媒体I/F304の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体305は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体305は、強化学習装置100から着脱可能であってもよい。
The recording medium I /
強化学習装置100は、上述した構成部のほか、例えば、キーボード、マウス、ディスプレイ、プリンタ、スキャナ、マイク、スピーカーなどを有してもよい。また、強化学習装置100は、記録媒体I/F304や記録媒体305を複数有していてもよい。また、強化学習装置100は、記録媒体I/F304や記録媒体305を有していなくてもよい。
The
(強化学習装置100の機能的構成例)
次に、図4を用いて、強化学習装置100の機能的構成例について説明する。
(Example of functional configuration of the reinforcement learning device 100)
Next, a functional configuration example of the
図4は、強化学習装置100の機能的構成例を示すブロック図である。強化学習装置100は、記憶部400と、取得部401と、切替部402と、学習部403と、出力部404とを含む。
FIG. 4 is a block diagram showing a functional configuration example of the
記憶部400は、例えば、図3に示したメモリ302や記録媒体305などの記憶領域によって実現される。以下では、記憶部400が、強化学習装置100に含まれる場合について説明するが、これに限らない。例えば、記憶部400が、強化学習装置100とは異なる装置に含まれ、記憶部400の記憶内容が強化学習装置100から参照可能である場合があってもよい。
The
取得部401〜出力部404は、制御部の一例として機能する。取得部401〜出力部404は、具体的には、例えば、図3に示したメモリ302や記録媒体305などの記憶領域に記憶されたプログラムをCPU301に実行させることにより、または、ネットワークI/F303により、その機能を実現する。各機能部の処理結果は、例えば、図3に示したメモリ302や記録媒体305などの記憶領域に記憶される。
The
記憶部400は、各機能部の処理において参照され、または更新される各種情報を記憶する。記憶部400は、発電システム200に関する状態値を記憶する。発電システム200に関する状態値は、例えば、発電システム200に含まれる1以上の発電機201のそれぞれの発電機201に関する状態値、および、発電システム200全体に関する状態値を含む。発電機201は、例えば、風力発電機または火力発電機などである。発電機201に関する状態値は、例えば、ストール制御の風力発電機に関する出力ワット値および風速と、ピッチ制御の風力発電機に関する出力ワット値および風速とである。発電機201に関する状態値は、例えば、火力発電機に関する出力ワット値および燃料使用量である。また、発電システム200全体に関する状態値は、例えば、発電システム200全体における需要電力である。
The
記憶部400は、発電システム200に含まれる1以上の発電機201のそれぞれの発電機201に対する指令値を記憶する。発電機201に対する指令値は、発電機201における自然エネルギーの利用効率を変更する指令値である。指令値は、例えば、発電機201の電源をONとOFFとで切り替えさせる指令値である。指令値は、例えば、風力発電機の受風性能を変更する指令値である。指令値は、例えば、ピッチ制御の風力発電機のピッチ角をどの程度変更するかを示す指令値である。ピッチ角をどの程度変更するかを示す指令値は、具体的には、−ΔΘと±0と+ΔΘとである。指令値は、例えば、火力発電機の発電機に設けられた燃料供給孔の大きさをどの程度変更するかを示す指令値である。指令値は、例えば、火力発電機の燃料使用量をどの程度変更するかを示す指令値である。
The
記憶部400は、1以上の発電機201に関する状態値の組み合わせが取りうる複数の領域のそれぞれの領域における、1以上の発電機201に対する指令値の組み合わせごとの有効性を示す有効性情報を記憶する。状態値の組み合わせは、1つの状態値であってもよい。また、記憶部400は、複数の領域のうち2以上の領域を結合した領域における、1以上の発電機201に対する指令値の組み合わせごとの有効性を示す有効性情報を記憶する。記憶部400は、例えば、複数の領域のそれぞれの領域に、指令値の組み合わせごとの有効性を示す有効値を対応付けた有効性情報をレコードとして含むテーブルを記憶する。有効値は、例えば、発電機における報酬の増加に寄与する度合いを示す。報酬は、例えば、発電量である。また、記憶部400は、例えば、複数の領域のそれぞれの領域についての有効性情報のうち、2以上の領域のそれぞれの領域についての有効性情報を、2以上の領域を結合した領域についての有効性情報に置き換えたテーブルを記憶する。
The
記憶部400は、発電機201についての特性関数を記憶する。特性関数は、発電機201に関する状態値の変化を示す。特性関数は、例えば、風速と風力発電機からの出力電力との関係を示す。特性関数は、例えば、火力発電機の燃料使用量と火力発電機からの出力電力との関係を示す。記憶部400は、例えば、特性関数を近似する近似曲線を記憶する。記憶部400は、例えば、風力発電機の受風性能ごとに異なる特性関数を記憶する。記憶部400は、具体的には、風力発電機のピッチ角ごとに異なる特性関数を記憶する。
The
記憶部400は、例えば、強化学習アルゴリズム、および、行動選択アルゴリズムによる処理手順を記憶する。強化学習アルゴリズムは、例えば、Q学習アルゴリズムである。強化学習アルゴリズムは、Q学習アルゴリズム以外であってもよい。行動選択アルゴリズムは、例えば、ε−greedyアルゴリズムである。
The
取得部401は、各機能部の処理に用いられる各種情報を記憶部400から取得し、各機能部に出力する。取得部401は、各機能部の処理に用いられる各種情報を、強化学習装置100とは異なる装置から取得し、各機能部に出力してもよい。取得部401は、例えば、発電システム200に関する状態値を取得する。取得部401は、発電機201に設けられた計測機から、発電機201に関する状態値を取得する。取得部401は、具体的には、電気会社のコンピュータから発電システム200における需要電力を取得する。
The
取得部401は、例えば、特性関数を表す情報を取得してもよい。取得部401は、例えば、特性関数に関する閾値を取得し、特性関数を表す情報を生成してもよい。特性関数に関する閾値は、少なくとも定格風速と最大出力とである。特性関数に関する閾値は、さらに、カットイン風速とカットアウト風速とであってもよい。取得部401は、様々な風速における発電機201からの出力電力を取得し、特性関数を表す情報を生成してもよい。
The
切替部402は、強化学習における学習に利用する有効性情報を切り替える。切替部402は、例えば、複数の領域のそれぞれの領域についての有効性情報を、学習に利用する有効性情報に設定する。切替部402は、例えば、複数の領域のそれぞれの領域についての有効性情報のうち、2以上の領域のそれぞれの領域についての有効性情報を、2以上の領域を結合した領域についての有効性情報に置き換え、学習に利用する有効性情報に設定する。
The
具体的には、2以上の領域のそれぞれの領域についての有効性情報を、学習に利用する有効性情報に設定している場合がある。この場合、切替部402は、取得した発電機201に関する状態値を参照し、特性関数に基づいて、2以上の領域を結合した領域についての有効性情報を生成する。また、切替部402は、2以上の領域のそれぞれの領域についての有効性情報に基づいて、2以上の領域を結合した領域についての有効性情報を生成してもよい。そして、切替部402は、学習に利用する有効性情報のうち、2以上の領域のそれぞれの領域についての有効性情報を、生成した有効性情報に置き換える。
Specifically, the validity information for each of the two or more regions may be set as the validity information used for learning. In this case, the
具体的には、2以上の領域を結合した領域についての有効性情報を、学習に利用する有効性情報に設定している場合がある。この場合、切替部402は、取得した発電機201に関する状態値を参照し、特性関数に基づいて、2以上の領域のそれぞれの領域についての有効性情報を生成する。また、切替部402は、2以上の領域を結合した領域についての有効性情報に基づいて、2以上の領域のそれぞれの領域についての有効性情報を生成してもよい。そして、切替部402は、学習に利用する有効性情報のうち、2以上の領域を結合した領域についての有効性情報を、生成した有効性情報に置き換える。
Specifically, the validity information about the area in which two or more areas are combined may be set as the validity information used for learning. In this case, the
切替部402は、具体的には、特性関数に基づいて、取得した風速に対応する出力電力を特定し、特定した出力電力に基づいて、結合した領域についての有効性情報を生成する。また、切替部402は、具体的には、発電機201の受風性能ごとに異なる複数の特性関数のうち、取得した風速および出力電力に対応する特性関数に基づいて、結合した領域についての有効性情報を生成する。
Specifically, the
切替部402は、具体的には、取得した需要電力が閾値以下である場合に、結合した領域についての有効性情報を生成する。切替部402は、より具体的には、取得した需要電力が閾値以下である場合に、出力電力についての複数の領域のうち、相対的に大きい出力電力についての2以上の領域を結合した領域についての有効性情報を生成する。
Specifically, when the acquired demand power is equal to or less than the threshold, the
切替部402は、具体的には、取得した需要電力が閾値を超える場合に、結合した領域についての有効性情報を生成する。切替部402は、より具体的には、取得した需要電力が閾値を超える場合に、出力電力についての複数の領域のうち、相対的に小さい出力電力についての2以上の領域を結合した領域についての有効性情報を生成する。
Specifically, when the acquired demand power exceeds the threshold value, the
学習部403は、切替部402が設定した有効性情報を利用して学習を行い、少なくともいずれかの有効性情報を更新する。学習部403は、例えば、複数の領域のそれぞれの領域についての有効性情報を利用して学習を行う。学習部403は、例えば、複数の領域のそれぞれの領域についての有効性情報のうち、2以上の領域のそれぞれの領域についての有効性情報を、2以上の領域を結合した領域についての有効性情報に置き換えて学習を行う。
The
出力部404は、各機能部の処理結果を出力する。出力形式は、例えば、ディスプレイへの表示、プリンタへの印刷出力、ネットワークI/F303による外部装置への送信、または、メモリ302や記録媒体305などの記憶領域への記憶である。これにより、出力部404は、各機能部の処理結果を利用者に通知可能にし、強化学習装置100の管理や運用、例えば、強化学習装置100の設定値の更新などを支援することができ、強化学習装置100の利便性の向上を図ることができる。
The
(風力発電機を含む発電システム200についての強化学習装置100の動作例)
次に、図5〜図13を用いて、風力発電機を含む発電システム200についての強化学習装置100の動作例について説明する。まず、図5の説明に移行し、風力発電機を含む発電システム200の具体的構成例について説明する。
(Operation example of the
Next, an operation example of the
図5は、風力発電機を含む発電システム200の具体的構成例を示す説明図である。図5の例では、発電システム200は、強化学習装置100と、ストール制御の風力発電機i(i=1,・・・,n)と、ピッチ制御の風力発電機i(i=1,・・・,m)とを含む。ストール制御の風力発電機iは、指令値ai(i=1,・・・,n)を強化学習装置100から受信する。ピッチ制御の風力発電機iは、指令値bi(i=1,・・・,m)を強化学習装置100から受信する。
FIG. 5: is explanatory drawing which shows the specific structural example of the
発電システム200は、ストール制御の風力発電機iについての風速計si(i=1,・・・,n)と、ピッチ制御の風力発電機iについての風速計pi(i=1,・・・,m)とを含む。風速計siは、風速値Fsi(tj)を、強化学習装置100に送信する。tjは、時刻である。風速計piは、風速値Fpi(tj)を、強化学習装置100に送信する。発電システム200は、ストール制御の風力発電機iについての電力計と、ピッチ制御の風力発電機iについての電力計とを含む。ストール制御の風力発電機iについての電力計は、出力ワット値Psi(tj)を、強化学習装置100に送信する。ピッチ制御の風力発電機iについての電力計は、出力ワット値Ppi(tj)を、強化学習装置100に送信する。
The
強化学習装置100は、テーブル生成部501と、区間切替部502と、値設定部503と、行動決定部504と、状態計算部505と、報酬計算部506と、テーブル更新部507とを含む。強化学習装置100は、発電システム200全体に関する需要電力ワット値P’(tj)を超えない範囲で、ストール制御の風力発電機iについての出力ワット値Psi(tj)と、ピッチ制御の風力発電機iについての出力ワット値Ppi(tj)との合計の増大化を図る。
The
テーブル生成部501は、図6および図7に後述する通常分割手法により分割された複数の通常区間についての有効性情報を記憶する通常テーブルを作成する。テーブル生成部501は、いずれの2以上の通常区間を結合すると、複数の通常区間が、図6および図7に後述する粗分割手法により分割された複数の粗分割区間に変換されるかを設定する。
The
区間切替部502は、風速値Fsi(tj)と、風速値Fpi(tj)と、出力ワット値Psi(tj)と、出力ワット値Ppi(tj)と、需要電力ワット値P’(tj)とを受信する。区間切替部502は、受信した各種情報に基づいて、利用するテーブルを、通常テーブルと、複数の粗分割区間についての有効性情報を記憶する粗分割テーブルとで切り替える。区間切替部502は、閾値α>需要電力ワット値P’(tj)であれば、粗分割テーブルを、利用するテーブルに設定する。区間切替部502は、閾値α≦需要電力ワット値P’(tj)であれば、通常テーブルを、利用するテーブルに設定する。
The
値設定部503は、切り替えた結果に基づいて、テーブルに有効値を設定する。値設定部503は、2以上の領域を結合した場合、結合した領域に対応するレコードに有効値を設定する。値設定部503は、2以上の領域を分離した場合、分離した領域ごとに対応するレコードに有効値を設定する。値設定部503は、有効値を設定したテーブルを出力する。
The
行動決定部504は、テーブルを利用して、ストール制御の風力発電機iに対する指令値aiを選択し、ストール制御の風力発電機iに送信し、ピッチ制御の風力発電機iに対する指令値biを選択し、ピッチ制御の風力発電機iに送信する。行動決定部504は、例えば、テーブルにおいて最も大きい有効値が対応付けられた、指令値aiと指令値biとの組み合わせを選択する。行動決定部504は、具体的には、ε−greedyアルゴリズムを用いて、εの確率で指令値をランダムに選択し、1−εの確率で現在の発電システム200の状態において最も大きい有効値が対応付けられた指令値aiと指令値biとの組み合わせを選択する。
The
状態計算部505は、風速値Fsi(tj)と、風速値Fpi(tj)と、出力ワット値Psi(tj)と、出力ワット値Ppi(tj)と、需要電力ワット値P’(tj)とに基づいて、発電システム200の状態を特定する。状態計算部505は、特定した状態に対応するテーブルのレコードを示す状態結果を出力する。報酬計算部506は、出力ワット値Psi(tj)と、出力ワット値Ppi(tj)と、需要電力ワット値P’(tj)とに基づいて、報酬値を算出する。テーブル更新部507は、状態結果が示すレコードにおける有効値を、算出した報酬値に基づいて更新する。
The
次に、図6〜図13の説明に移行し、テーブル生成部501と、区間切替部502と、値設定部503と、行動決定部504と、状態計算部505と、報酬計算部506と、テーブル更新部507との、各部分の動作について具体的に説明する。まず、図6および図7の説明に移行し、テーブル生成部501において設定される粗分割区間について具体的に説明する。
Next, shifting to the description of FIGS. 6 to 13, the
図6は、ストール制御の風力発電機の状態値が取りうる通常区間と粗分割区間を示す説明図である。例えば、図6のグラフ601に示すように、均一に分割する通常分割手法により、出力電力および風速についての全体区間が複数の通常区間に分割される。例えば、出力電力の全体区間は通常区間1,2,・・・,npsiに分割される。風速の全体区間は通常区間1,2,・・・,nfsiに分割される。そして、例えば、図6のグラフ602に示すように、出力電力が大きい方にある2つの領域が結合する対象に設定され、出力電力および風速についての全体区間が複数の粗分割区間に分割される。例えば、出力電力の全体区間は粗分割区間1,2,・・・,npsi−1に分割される。風速の全体区間は粗分割区間1,2,・・・,nfsi−1に分割される。次に、図7の説明に移行する。
FIG. 6 is an explanatory diagram showing a normal section and a roughly divided section that can be taken by the state value of the stall-controlled wind power generator. For example, as shown by a
図7は、ピッチ制御の風力発電機の状態値が取りうる通常区間と粗分割区間を示す説明図である。例えば、図7のグラフ701に示すように、均一に分割する通常分割手法により、出力電力および風速についての全体区間が、複数の通常区間に分割される。例えば、出力電力の全体区間は通常区間1,2,・・・,nppiに分割される。風速の全体区間は通常区間1,2,・・・,nfpiに分割される。そして、例えば、図7のグラフ702に示すように、出力電力が大きい方にある2つの領域が結合する対象に設定され、出力電力および風速についての全体区間が複数の粗分割区間に分割される。例えば、出力電力の全体区間は粗分割区間1,2,・・・,nppi−1に分割される。風速の全体区間は粗分割区間1,2,・・・,nfpi−1に分割される。
FIG. 7: is explanatory drawing which shows the normal area and coarse division area which the state value of the pitch control wind power generator can take. For example, as shown in a
次に、図8の説明に移行し、テーブル生成部501において作成される通常区間についての通常テーブル801と、通常テーブル801から切り替えられる粗分割区間についての粗分割テーブル802とを実現する一例について具体的に説明する。
Next, shifting to the description of FIG. 8, a specific example of realizing the normal table 801 for the normal sections created by the
図8は、通常テーブル801と粗分割テーブル802とを実現する一例を示す説明図である。図8において、強化学習装置100は、通常テーブル801のレコードを、粗分割テーブル802のレコードとして流用することにより、通常テーブル801と粗分割テーブル802とを相互に変換可能に実現する。
FIG. 8 is an explanatory diagram showing an example of realizing the normal table 801 and the coarse division table 802. In FIG. 8, the
強化学習装置100は、例えば、通常テーブル801を作成する。強化学習装置100は、通常テーブル801を粗分割テーブル802に変換する場合、結合する2以上の通常区間の一方の通常区間に対応するレコードを、結合した粗分割区間に対応するレコードとして流用する。そして、強化学習装置100は、他方の通常区間のレコードに設定された有効性情報を削除する。強化学習装置100は、例えば、通常区間npsi−1と通常区間npsiとを結合する場合、通常区間npsi−1に対応するレコードを粗分割区間npsi−1に対応するレコードとして流用する。強化学習装置100は、例えば、区間npsiに対応するレコードに設定された有効性情報を削除する。
The
また、強化学習装置100は、粗分割テーブル802を通常テーブル801に変換する場合、結合した区間に対応するレコードを、結合した区間から分割される2以上の区間の一方の区間に対応するレコードとして流用する。そして、強化学習装置100は、他方の区間のレコードに有効性情報を再び設定する。強化学習装置100は、例えば、粗分割区間npsi−1を、通常区間npsi−1と通常区間npsiとに分割する場合、粗分割区間npsi−1に対応するレコードを、通常区間npsi−1に対応するレコードとして流用する。強化学習装置100は、例えば、通常区間npsiに対応するレコードに有効性情報を再び設定する。
Further, when converting the rough division table 802 into the normal table 801, the
次に、図9を用いて、テーブル生成部501において作成される通常テーブル801の記憶内容の一例について説明する。通常テーブル801は、例えば、図3に示した強化学習装置100のメモリ302や記録媒体305などの記憶領域により実現される。以下の通常テーブル801の説明は、強化学習手法としてQ学習を利用する場合に対応し、異なる強化学習手法を利用する場合には記憶内容が異なってもよい。
Next, with reference to FIG. 9, an example of the stored contents of the normal table 801 created by the
図9は、通常テーブル801の記憶内容の一例を示す説明図である。図9に示すように、通常テーブル801は、状態値と指令値と有効値とのフィールドを有する。通常テーブル801は、各フィールドに情報を設定することにより、有効性情報をレコードとして記憶する。 FIG. 9 is an explanatory diagram showing an example of the stored contents of the normal table 801. As shown in FIG. 9, the normal table 801 has fields for status values, command values, and valid values. The normal table 801 stores validity information as a record by setting information in each field.
状態値のフィールドには、発電システム200に関する状態値が取りうる区間が設定される。発電システム200に関する状態値は、風力発電機に関する状態値、および、発電システム200全体に関する状態値を含む。図9の例では、風力発電機に関する状態値は、ストール制御の風力発電機に関する出力ワット値および風速値と、ピッチ制御の風力発電機に関する出力ワット値および風速値とである。また、発電システム200全体に関する状態値は、発電システム200全体における需要電力ワット値である。
In the state value field, a section where the state value regarding the
指令値のフィールドには、風力発電機に対する指令値が設定される。図9の例では、風力発電機に対する指令値は、ストール制御の風力発電機の電源をONとOFFとで切り替えさせる指令値である。また、風力発電機に対する指令値は、ピッチ制御の風力発電機のピッチ角をどの程度変更するかを示す指令値である。ピッチ角をどの程度変更するかを示す指令値は、具体的には、−ΔΘと±0と+ΔΘとである。有効値のフィールドには、それぞれの状態値がいずれかの区間に含まれる場合における、風力発電機ごとの指令値の組み合わせの有効性を示す有効値が設定される。 A command value for the wind power generator is set in the command value field. In the example of FIG. 9, the command value for the wind power generator is a command value for switching the power source of the stall-controlled wind power generator between ON and OFF. The command value for the wind power generator is a command value indicating how much the pitch angle of the pitch-controlled wind power generator is changed. Specifically, the command values indicating how much the pitch angle is changed are -ΔΘ, ± 0, and + ΔΘ. In the effective value field, an effective value indicating the effectiveness of the combination of command values for each wind power generator when each state value is included in any section is set.
次に、図10の説明に移行し、区間切替部502が、通常テーブル801を粗分割テーブル802に変換する場合、または、粗分割テーブル802を通常テーブル801に変換する場合に用いられる、風力発電機に関する特性関数を作成する一例について説明する。風力発電機に関する特性関数は、強化学習装置100に予め入力されてもよい。
Next, shifting to the description of FIG. 10, the wind power generation that is used when the
図10は、特性関数を作成する一例を示す説明図である。図10において、強化学習装置100は、風力発電機に関する特性関数を作成する。強化学習装置100は、例えば、様々な風速におけるストール制御の風力発電機からの出力ワット値を取得する。また、強化学習装置100は、定格風速と最大出力とカットイン風速とカットアウト風速とを取得する。
FIG. 10 is an explanatory diagram showing an example of creating the characteristic function. In FIG. 10, the
次に、強化学習装置100は、定格風速と最大出力とカットイン風速とカットアウト風速と様々な風速における出力ワット値とに基づいて、ストール制御の風力発電機についての特性関数が示す特性曲線を近似する近似曲線fi(t)を求める。強化学習装置100は、例えば、風速0からカットイン風速までは、y=0の形状で近似曲線fi(t)の一部を求める。
Next, the
強化学習装置100は、例えば、カットイン風速から定格風速までは、様々な風速における出力ワット値に基づいて、y=a*x^3の形状で近似曲線fi(t)の一部を求める。強化学習装置100は、例えば、定格風速以降では、様々な風速における出力ワット値に基づいて、y=b*x^2の形状で近似曲線fi(t)の一部を求める。これにより、強化学習装置100は、図10のグラフ1000に示すような近似曲線fi(t)を求める。
The
また、強化学習装置100は、例えば、ピッチ角Θ=0,ΔΘ,2ΔΘ,・・・,kΔΘにおける、様々な風速におけるピッチ制御の風力発電機からの出力ワット値を取得する。また、強化学習装置100は、定格風速と最大出力とカットイン風速とカットアウト風速とを取得する。
Further, the
次に、強化学習装置100は、定格風速と最大出力とカットイン風速とカットアウト風速と様々な風速における出力ワット値とに基づいて、ピッチ制御の風力発電機についての特性関数が示す特性曲線を近似する近似曲線fi(t)を求める。強化学習装置100は、例えば、風速0からカットイン風速までは、y=0の形状で近似曲線fi(t)の一部を求める。
Next, the
強化学習装置100は、例えば、カットイン風速から定格風速までは、様々な風速における出力ワット値に基づいて、y=a*x^3の形状で近似曲線fi(t)の一部を求める。強化学習装置100は、例えば、定格風速以降では、様々な風速における出力ワット値に基づいて、y=b*x^2の形状で近似曲線fi(t)の一部を求める。これにより、強化学習装置100は、ピッチ角Θ=0,ΔΘ,2ΔΘ,・・・,kΔΘにおける、図10のグラフ1000に示すような近似曲線fi(t)を求める。
The
次に、図11の説明に移行し、区間切替部502が、予め作成された特定関数の近似曲線fi(t)に基づいて、通常テーブル801を粗分割テーブル802に変換し、利用するテーブルを粗分割テーブル802に切り替える一例について説明する。
Next, shifting to the description of FIG. 11, the
図11は、利用するテーブルを粗分割テーブル802に切り替える一例を示す説明図である。図11において、強化学習装置100は、閾値α>需要電力ワット値P’(tj)であるため、粗分割テーブル802を利用するテーブルに設定する。図11の例では、通常区間nps1−1と通常区間nps1とを結合した粗分割区間npsi−1に対応する、●1101で示すフィールドに有効値を設定する場合について説明する。
FIG. 11 is an explanatory diagram showing an example of switching the table to be used to the coarse division table 802. In FIG. 11, the
強化学習装置100は、例えば、粗分割区間nps1−1に対応するレコードを特定する。強化学習装置100は、特定したレコードに設定されたストール制御の風力発電機iに関する風速値Fs1,・・・,Fsnを取得する。また、強化学習装置100は、特定したレコードに設定されたピッチ制御の風力発電機iからの出力ワット値Pp1,・・・,Ppmを取得する。また、強化学習装置100は、特定したレコードに設定されたピッチ制御の風力発電機iに関する風速値Fp1,・・・,Fpmを取得する。また、強化学習装置100は、特定したレコードに設定された発電システム200全体に関する需要電力ワット値P’を取得する。
The
強化学習装置100は、ストール制御の風力発電機iに対して、観測した風速Fsiと近似曲線fi(t)とに基づいて、電源をONにした時の予測出力電力P’si=fi(Fsi)を算出する。また、強化学習装置100は、ストール制御の風力発電機iに対して、電源をOFFにした時の予測出力電力P’si=0を決定する。
The
また、強化学習装置100は、ピッチ制御の風力発電機iに対して、観測した風速Fpiと出力ワット値Ppiと近似曲線fi,Θ(t)とに基づいて、fi,Θ(Fpi)≒Ppiになるピッチ角Θを決定する。次に、強化学習装置100は、決定したピッチ角Θに対して−ΔΘ、±0、+ΔΘをした場合における予測出力電力P’pi=fi,Θ-ΔΘ(Fpi)、fi,Θ(Fpi)、fi,Θ+ΔΘ(Fpi)を算出する。
Further, the
強化学習装置100は、予測出力電力P’si=fi(Fsi)と、予測出力電力P’pi=fi,Θ-ΔΘ(Fpi)、fi,Θ(Fpi)、fi,Θ+ΔΘ(Fpi)とに基づいて、予測出力電力テーブル1100を作成する。強化学習装置100は、●1101で示すフィールドに対応する、ストール制御の風力発電機に対する指令値a1,・・・,anと、ピッチ制御の風力発電機に対する指令値b1,・・・,bmとを取得する。そして、強化学習装置100は、作成した予測出力電力テーブル1100から、取得した指令値に対応する予測出力電力P’siと、予測出力電力P’piとを取得し、下記式(1)を用いて、発電システム200全体における予測出力電力P〜を算出する。
The
そして、強化学習装置100は、取得した需要電力ワット値P’と、算出した予測出力電力P〜との差分値P”に基づいて、有効値Q=r(P”)を算出して、●1101で示すフィールドに設定する。r(P”)は、下記式(2)〜下記式(5)により定義される。具体的には、P”を下記式(2)により定義し、δ>0を設定するとき、P”>δの場合には下記式(3)によりr(P”)を定義し、−δ≦P”≦δの場合には下記式(4)によりr(P”)を定義し、P”<−δの場合には下記式(5)によりr(P”)を定義する。
Then, the
強化学習装置100は、他のフィールドにも同様に有効値を設定する。これにより、強化学習装置100は、出力ワット値の合計が需要電力ワット値に近づくほど、有効値が大きくなるように、有効値を算出することができる。このため、強化学習装置100は、有効値を参照して、発電システム200を適切に制御しやすくすることができる。また、強化学習装置100は、学習を行って更新する対象である有効性情報の数を減少させ、強化学習にかかる処理量の低減化を図ることができる。
The
次に、図12の説明に移行し、区間切替部502が、予め作成された特定関数の近似曲線fi(t)に基づいて、粗分割テーブル802を通常テーブル801に変換し、利用するテーブルを通常テーブル801に切り替える一例について説明する。
Next, shifting to the description of FIG. 12, the
図12は、利用するテーブルを通常テーブル801に切り替える一例を示す説明図である。図12において、強化学習装置100は、閾値α≦需要電力ワット値P’(tj)であるため、通常テーブル801を利用するテーブルに設定する。図12の例では、粗分割区間npsi−1から分割した通常区間nps1−1に対応する、●1201で示すフィールドに有効値を設定する場合について説明する。
FIG. 12 is an explanatory diagram showing an example of switching the table to be used to the normal table 801. In FIG. 12, the
強化学習装置100は、例えば、粗分割区間npsi−1に対応するレコードを特定する。次に、強化学習装置100は、特定したレコードに設定されたストール制御の風力発電機iに関する風速値Fs1,・・・,Fsnを取得する。また、強化学習装置100は、特定したレコードに設定されたピッチ制御の風力発電機iからの出力ワット値Pp1,・・・,Ppmを取得する。また、強化学習装置100は、特定したレコードに設定されたピッチ制御の風力発電機iに関する風速値Fp1,・・・,Fpmを取得する。また、強化学習装置100は、特定したレコードに設定された発電システム200全体に関する需要電力ワット値P’を取得する。
The
強化学習装置100は、ストール制御の風力発電機iに対して、観測した風速Fsiと近似曲線fi(t)とに基づいて、電源をONにした時の予測出力電力P’si=fi(Fsi)を算出する。また、強化学習装置100は、ストール制御の風力発電機iに対して、電源をOFFにした時の予測出力電力P’si=0を決定する。
The
また、強化学習装置100は、ピッチ制御の風力発電機iに対して、観測した風速Fpiと出力ワット値Ppiと近似曲線fi,Θ(t)とに基づいて、fi,Θ(Fpi)≒Ppiになるピッチ角Θを決定する。次に、強化学習装置100は、決定したピッチ角Θに対して−ΔΘ、±0、+ΔΘをした場合における予測出力電力P’pi=fi,Θ-ΔΘ(Fpi)、fi,Θ(Fpi)、fi,Θ+ΔΘ(Fpi)を算出する。
Further, the
強化学習装置100は、予測出力電力P’si=fi(Fsi)と、予測出力電力P’pi=fi,Θ-ΔΘ(Fpi)、fi,Θ(Fpi)、fi,Θ+ΔΘ(Fpi)とに基づいて、予測出力電力テーブル1200を作成する。強化学習装置100は、●1201で示すフィールドに対応する、ストール制御の風力発電機に対する指令値a1,・・・,anと、ピッチ制御の風力発電機に対する指令値b1,・・・,bmとを取得する。そして、強化学習装置100は、作成した予測出力電力テーブル1200から、取得した指令値に対応する予測出力電力P’siと、予測出力電力P’piとを取得し、上記式(1)を用いて、発電システム200全体における予測出力電力P〜を算出する。
The
そして、強化学習装置100は、取得した需要電力ワット値P’と、算出した予測出力電力P〜との差分値P”に基づいて、有効値Q=r(P”)を算出して、●1201で示すフィールドに設定する。r(P”)は、具体的には、上記式(2)〜上記式(5)により定義される。
Then, the
強化学習装置100は、通常区間nps1−1に対応する他のフィールド、および、通常区間npsiに対応するフィールドにも同様に有効値を設定する。これにより、強化学習装置100は、出力ワット値の合計が需要電力ワット値に近づくほど、有効値が大きくなるように、有効値を算出することができる。このため、強化学習装置100は、有効値を参照して、発電システム200を適切に制御しやすくすることができる。また、強化学習装置100は、学習を行って更新する対象である有効性情報の数を増加させ、どのような状態値の場合にどのような指令値を出力することが好ましいかを細分化し実行することができる。
The
以上では、強化学習装置100は、近似曲線fi(t)や近似曲線fi,Θ(t)に基づいて、有効値を算出した。ここで、現在の風速をFsi,Fpiとして、次の時刻で観測される風速をFsi+ΔFsi,Fpi+ΔFpiとする。この場合、次の時刻で観測される出力電力はfi(Fsi+ΔFsi)、fi,Θ-ΔΘ(Fpi+ΔFpi)、fi,Θ(Fpi+ΔFpi)、fi,Θ+ΔΘ(Fpi+ΔFpi)となる。さらに、近似曲線は連続関数であるため、次の時刻で観測される出力電力はfi(Fsi)+ΔPsi、fi,Θ-ΔΘ(Fpi)+ΔPpi、fi,Θ(Fpi)+ΔPpi、fi,Θ+ΔΘ(Fpi)+ΔPpiとなる。
In the above, the
また、次の時刻での需要電力をP’+ΔP’とすれば、次の時刻での需要電力と出力電力との差P”nと、現在求めた需要電力と出力電力の差P”について、下記式(6)が成立する。また、報酬関数は連続関数であるため、下記式(7)が成立する。 If the demand power at the next time is P ′ + ΔP ′, the difference P ″ n between the demand power and the output power at the next time and the difference P ″ between the demand power and the output power currently obtained are The following formula (6) is established. Since the reward function is a continuous function, the following expression (7) is established.
ここで、ΔFsi→0、ΔFpi→0、ΔP→0であれば、P”n→P”、r(P”n)→r(P”)が成立する。したがって、風速が安定し、かつ、需要電力の変化が小さい場合には、P”n≒P”、r(P”n)≒r(P”)が成立する。このため、強化学習装置100が、ε−greedyアルゴリズムにより、最も大きい有効値r(P”)の指令値の組み合わせを選択すれば、下記式(8)により、出力電力の合計を需要電力に近づけることができると判断される。
Here, if ΔF si → 0, ΔF pi → 0, ΔP → 0, then P ″ n → P ″ and r (P ″ n ) → r (P ″). Therefore, when the wind speed is stable and the change in the demand power is small, P ″ n ≈P ″ and r (P ″ n ) ≈r (P ″) are established. Therefore, if the
このように、強化学習装置100は、特性関数に基づいて有効値を算出することで、制御対象となる風力発電機に対し、実際の需用電力に応じた出力電力となるようにすることができる。このため、強化学習装置100は、有効値を0で初期化したり、有効値をランダムに設定したりする場合に比べて、適切な指令値を選択しやすくすることができる。
As described above, the
その後、強化学習装置100は、一定時間ごとに、ε−greedyアルゴリズムを用いて、指令値aiと指令値biとの組み合わせを行動として選択して出力する。強化学習装置100は、例えば、時刻tjにおいて、風速値Fsi(tj)と、風速値Fpi(tj)と、出力ワット値Psi(tj)と、出力ワット値Ppi(tj)と、需要電力ワット値P’(tj)とを、状態値として取得する。
After that, the
強化学習装置100は、風速値Fsi(tj)の属する区間Fsi〜(tj)と、風速値Fpi(tj)の属する区間Fpi〜(tj)とを特定する。強化学習装置100は、出力ワット値Psi(tj)の属する区間Psi〜(tj)と、出力ワット値Ppi(tj)の属する区間Ppi〜(tj)とを特定する。強化学習装置100は、需要電力ワット値P’(tj)の属する区間P’〜(tj)を特定する。
The
そして、強化学習装置100は、εの確率で、指令値aiと指令値biとの組み合わせをランダムに選択して出力する。強化学習装置100は、1−εの確率で、利用するテーブルとして設定された通常テーブル801または粗分割テーブル802のうち、取得した状態値が属する区間の組み合わせに対応するレコードを特定する。強化学習装置100は、特定したレコードにおいて、最も大きい有効値が対応付けられた指令値aiと指令値biとの組み合わせを選択して出力する。
Then, the
また、強化学習装置100は、時刻tj-1で出力した指令値aiと指令値biとの組み合わせについて、時刻tjにおいて報酬値を算出する。強化学習装置100は、例えば、下記式(9)〜下記式(12)により、報酬値r(tj)を算出する。具体的には、P”(tj)を下記式(9)により定義する。そして、P”(tj)>δの場合には下記式(10)によりr(tj)を定義し、−δ≦P”(tj)≦δの場合には下記式(11)によりr(tj)を定義し、P”(tj)<−δの場合には下記式(12)によりr(tj)を定義する。
Further, the
次に、図13を用いて、情報処理装置が、指令値aiと指令値biとの組み合わせを出力したことに応じて算出した報酬値に基づいて、有効値を更新する場合について説明する。図13の例では、情報処理装置は、例えば、時刻tj+1において、時刻tjにおいて出力した指令値aiと指令値biとの組み合わせについて算出した報酬値に基づいて、有効値を更新する場合について説明する。 Next, a case where the information processing device updates the effective value based on the reward value calculated in response to the output of the combination of the command value ai and the command value bi will be described with reference to FIG. 13. In the example of FIG. 13, the information processing apparatus updates the effective value, for example, at time t j + 1 based on the reward value calculated for the combination of the command value ai and the command value bi output at time t j . The case will be described.
図13は、有効値を更新する一例を示す説明図である。図13において、強化学習装置100は、時刻tjにおいて取得した状態値が属する区間の組み合わせに対応するレコードに対応付けられた、●1301で示すフィールドに設定された有効値Qを更新する。強化学習装置100は、例えば、下記式(13)および下記式(14)を用いて、時刻tj+1において算出した報酬値に基づいて、有効値Q’を算出し、●1301で示すフィールドに設定された有効値Qを更新する。
FIG. 13 is an explanatory diagram showing an example of updating valid values. In FIG. 13, the
強化学習装置100は、時刻tj+1において取得した状態値が属する区間の組み合わせに対応するレコードが、粗分割区間に対応するレコード、または、結合されうる通常区間に対応するレコードであれば、下記式(13)を用いて有効値Q’を算出する。また、強化学習装置100は、時刻tj+1において取得した状態値が属する区間の組み合わせに対応するレコードが、粗分割区間に対応するレコード、または、結合されうる通常区間に対応するレコードでなければ、下記式(14)を用いて有効値Q’を算出する。
In the
図13の例では、強化学習装置100は、時刻tj+1において取得した状態値が属する区間の組み合わせに対応するレコードが、粗分割区間に対応するレコード、または、結合されうる通常区間に対応するレコードではないと判定する。強化学習装置100は、フィールド1311の状態値、フィールド1312の有効値をmax関数に代入した値、および、有効値Qに基づいて、上記式(14)を用いて有効値Q’を算出する。
In the example of FIG. 13, in the
一方で、強化学習装置100が、時刻tj+1において取得した状態値が属する区間の組み合わせに対応するレコードが、粗分割区間に対応するレコード、または、結合されうる通常区間に対応するレコードであると判定する場合がある。この場合、強化学習装置100は、フィールド1310の状態値、フィールド1320の状態値、および、有効値Qに基づいて、上記式(13)を用いて有効値Q’を算出する。これにより、強化学習装置100は、有効性情報を更新し、発電システム200に対して適切な制御を行いやすくすることができる。
On the other hand, in the
(火力発電機を含む発電システム200についての強化学習装置100の動作例)
次に、図14および図15を用いて、火力発電機を含む発電システム200についての強化学習装置100の動作例について説明する。まず、図14の説明に移行し、火力発電機を含む発電システム200の具体的構成例について説明する。
(Operation example of the
Next, an operation example of the
図14は、火力発電機を含む発電システム200の具体的構成例を示す説明図である。図14の例では、発電システム200は、強化学習装置100と、燃料制御の火力発電機i(i=1,・・・,m)とを含む。燃料制御の火力発電機iは、指令値bi(i=1,・・・,m)を強化学習装置100から受信する。
FIG. 14: is explanatory drawing which shows the specific structural example of the
発電システム200は、燃料制御の火力発電機iについての燃料計pi(i=1,・・・,m)とを含む。燃料計piは、燃料使用量Fpi(tj)を、強化学習装置100に送信する。発電システム200は、燃料制御の火力発電機iについての電力計とを含む。燃料制御の火力発電機iについての電力計は、出力ワット値Ppiを、強化学習装置100に送信する。
The
強化学習装置100は、テーブル生成部501と、区間切替部502と、値設定部503と、行動決定部504と、状態計算部505と、報酬計算部506と、テーブル更新部507とを含む。ここで、火力発電機を含む発電システム200についての強化学習装置100が有する各部分の動作は、風力発電機を含む発電システム200についての強化学習装置100が有する各部分の動作と同様であるため、説明を省略する。ここで、図15の説明に移行し、火力発電機を含む発電システム200における、通常テーブル801の記憶内容の一例について説明する。
The
図15は、火力発電機に関する通常テーブル801の記憶内容の一例を示す説明図である。図15に示すように、通常テーブル801は、状態値と指令値と有効値とのフィールドを有する。通常テーブル801は、各フィールドに情報を設定することにより、有効性情報をレコードとして記憶する。 FIG. 15 is an explanatory diagram showing an example of the stored contents of the normal table 801 relating to the thermal power generator. As shown in FIG. 15, the normal table 801 has fields of a state value, a command value, and a valid value. The normal table 801 stores validity information as a record by setting information in each field.
状態値のフィールドには、発電システム200に関する状態値が取りうる区間が設定される。発電システム200に関する状態値は、火力発電機に関する状態値、および、発電システム200全体に関する状態値を含む。図15の例では、火力発電機に関する状態値は、燃料制御の火力発電機に関する出力ワット値および燃料使用量とである。また、発電システム200全体に関する状態値は、発電システム200全体における需要電力である。
In the state value field, a section where the state value regarding the
指令値のフィールドには、火力発電機に対する指令値が設定される。図15の例では、火力発電機に対する指令値は、燃料制御の火力発電機の燃料使用量をどの程度変更するかを示す指令値である。燃料使用量をどの程度変更するかを示す指令値は、具体的には、−Xと±0と+Xとである。有効値のフィールドには、それぞれの状態値がいずれかの区間に含まれる場合における、火力発電機ごとの指令値の組み合わせの有効性を示す有効値が設定される。 A command value for the thermal power generator is set in the command value field. In the example of FIG. 15, the command value for the thermal power generator is a command value indicating how much the fuel usage amount of the fuel-controlled thermal power generator should be changed. The command values indicating how much the fuel usage amount is changed are specifically −X, ± 0, and + X. In the effective value field, an effective value indicating the effectiveness of the combination of command values for each thermal power generator when each state value is included in any section is set.
(全体処理手順)
次に、図16を用いて、強化学習装置100が実行する、全体処理手順の一例について説明する。全体処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
(Overall processing procedure)
Next, an example of the overall processing procedure executed by the
図16は、全体処理手順の一例を示すフローチャートである。図16において、強化学習装置100は、複数の通常区間についてのテーブルを作成し、粗分割区間になりうる2以上の通常区間を設定する(ステップS1601)。
FIG. 16 is a flowchart showing an example of the overall processing procedure. In FIG. 16, the
次に、強化学習装置100は、図17に後述する切替判定処理を実行し、利用するテーブルを設定する(ステップS1602)。そして、強化学習装置100は、図18に後述する値設定処理を実行し、設定したテーブルに対して有効値を設定する(ステップS1603)。
Next, the
次に、強化学習装置100は、風力発電機からの出力ワット値と、風速値と、需要電力ワット値とに基づいて、風力発電機の状態を特定する(ステップS1604)。そして、強化学習装置100は、風力発電機からの出力ワット値と需要電力ワット値とに基づいて、風力発電機からの報酬を算出する(ステップS1605)。
Next, the
次に、強化学習装置100は、設定したテーブルを利用して、風力発電機に対する指令値を決定して出力する(ステップS1606)。そして、強化学習装置100は、算出した報酬に基づいて、設定したテーブルに記憶された有効値を更新する(ステップS1607)。その後、強化学習装置100は、ステップS1602の処理に戻る。
Next, the
(切替判定処理手順)
次に、図17を用いて、強化学習装置100が実行する、切替判定処理手順の一例について説明する。切替判定処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
(Switching determination processing procedure)
Next, an example of a switching determination processing procedure executed by the
図17は、切替判定処理手順の一例を示すフローチャートである。図17において、強化学習装置100は、閾値αを設定する(ステップS1701)。次に、強化学習装置100は、需要電力ワット値P’(tj)に対し、α>P’(tj)であるか否かを判定する(ステップS1702)。
FIG. 17 is a flowchart showing an example of the switching determination processing procedure. In FIG. 17, the
ここで、α>P’(tj)である場合(ステップS1702:Yes)、強化学習装置100は、ステップS1707の処理に移行する。一方で、α>P’(tj)ではない場合(ステップS1702:No)、強化学習装置100は、ステップS1703の処理に移行する。
Here, if α> P ′ (t j ) (step S1702: Yes), the
ステップS1703では、強化学習装置100は、通常区間についての通常テーブル801を利用すると決定する(ステップS1703)。次に、強化学習装置100は、直前まで通常区間についての通常テーブル801を利用していたか否かを判定する(ステップS1704)。
In step S1703, the
ここで、通常区間についての通常テーブル801を利用している場合(ステップS1704:Yes)、強化学習装置100は、ステップS1706の処理に移行する。一方で、通常区間についての通常テーブル801を利用していない場合(ステップS1704:No)、強化学習装置100は、ステップS1705の処理に移行する。
Here, when the normal table 801 for the normal section is used (step S1704: Yes), the
ステップS1705では、強化学習装置100は、通常区間についての通常テーブル801を作成し、利用するテーブルに設定する(ステップS1705)。そして、強化学習装置100は、切替判定処理を終了する。
In step S1705, the
ステップS1706では、強化学習装置100は、直前まで利用していたテーブルをそのまま、利用するテーブルに設定する(ステップS1706)。そして、強化学習装置100は、切替判定処理を終了する。
In step S1706, the
ステップS1707では、強化学習装置100は、粗分割区間についての粗分割テーブル802を利用すると決定する(ステップS1707)。次に、強化学習装置100は、直前まで粗分割区間についての粗分割テーブル802を利用していたか否かを判定する(ステップS1708)。
In step S1707, the
ここで、粗分割区間についての粗分割テーブル802を利用している場合(ステップS1708:Yes)、強化学習装置100は、ステップS1706の処理に移行する。一方で、粗分割区間についての粗分割テーブル802を利用していない場合(ステップS1708:No)、強化学習装置100は、ステップS1709の処理に移行する。
Here, when the coarse division table 802 for the coarse division section is used (step S1708: Yes), the
ステップS1709では、強化学習装置100は、粗分割区間についての粗分割テーブル802を作成し、利用するテーブルに設定する(ステップS1709)。そして、強化学習装置100は、切替判定処理を終了する。
In step S1709, the
(値設定処理手順)
次に、図18を用いて、強化学習装置100が実行する、値設定処理手順の一例について説明する。値設定処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
(Value setting procedure)
Next, an example of the value setting processing procedure executed by the
図18は、値設定処理手順の一例を示すフローチャートである。図18において、強化学習装置100は、利用するテーブルから、粗分割区間を分割する通常区間、または、通常区間を結合する粗分割区間に対応するレコードを特定する(ステップS1801)。
FIG. 18 is a flowchart showing an example of the value setting processing procedure. In FIG. 18, the
次に、強化学習装置100は、特定したレコードに設定されたストール制御の風力発電機i(i=1,・・・,n)に関する風速値Fs1,・・・,Fsnを取得する(ステップS1802)。そして、強化学習装置100は、特定したレコードに設定されたピッチ制御の風力発電機i(i=1,・・・,m)からの出力ワット値Pp1,・・・,Ppmを取得する(ステップS1803)。
Next, the
次に、強化学習装置100は、特定したレコードに設定されたピッチ制御の風力発電機i(i=1,・・・,m)に関する風速値Fp1,・・・,Fpmを取得する(ステップS1804)。そして、強化学習装置100は、特定したレコードに設定された発電システム200全体に関する需要電力ワット値P’を取得する(ステップS1805)。
Next, the
次に、強化学習装置100は、ストール制御の風力発電機i(i=1,・・・,n)に対して、観測した風速Fsiと近似曲線fi(t)とに基づいて、電源をONにした時の予測出力電力fi(Fsi)を算出する(ステップS1806)。そして、強化学習装置100は、ピッチ制御の風力発電機i(i=1,・・・,m)に対して、観測した風速Fpiと出力ワット値Ppiと近似曲線fi,Θ(t)とに基づいて、fi,Θ(Fpi)≒Ppiになるピッチ角Θを決定する(ステップS1807)。
Next, the
次に、強化学習装置100は、決定したピッチ角Θに対して−ΔΘ、±0、+ΔΘをした場合における予測出力電力fi,Θ-ΔΘ(Fpi)、fi,Θ(Fpi)、fi,Θ+ΔΘ(Fpi)を算出する(ステップS1808)。そして、強化学習装置100は、予測出力電力fi(Fsi)と、予測出力電力fi,Θ-ΔΘ(Fpi)、fi,Θ(Fpi)、fi,Θ+ΔΘ(Fpi)とに基づいて、予測出力電力テーブルを作成する(ステップS1809)。
Next, the
次に、強化学習装置100は、特定したレコードにあるフィールドごとに、ストール制御の風力発電機に対する指令値a1,・・・,anと、ピッチ制御の風力発電機に対する指令値b1,・・・,bmとを取得する(ステップS1810)。そして、強化学習装置100は、特定したレコードにあるフィールドごとに、取得した指令値と作成した予測出力電力テーブルとに基づいて、発電システム200全体における予測出力電力P〜を算出する(ステップS1811)。
Next, the
次に、強化学習装置100は、特定したレコードにあるフィールドごとに、需要電力ワット値P’と算出した予測出力電力P〜との差分値に基づいて、有効値を算出して設定する(ステップS1812)。そして、強化学習装置100は、値設定処理を終了する。
Next, the
(特性関数作成処理手順)
次に、図19および図20を用いて、強化学習装置100が実行する、特性関数作成処理手順の一例について説明する。特性関数作成処理は、例えば、図3に示したCPU301と、メモリ302や記録媒体305などの記憶領域と、ネットワークI/F303とによって実現される。
(Characteristic function creation processing procedure)
Next, an example of a characteristic function creation processing procedure executed by the
図19は、ストール制御の風力発電機についての特性関数作成処理手順の一例を示すフローチャートである。図19において、強化学習装置100は、様々な風速におけるストール制御の風力発電機からの出力ワット値を観測する(ステップS1901)。
FIG. 19 is a flowchart showing an example of a characteristic function creation processing procedure for a stall-controlled wind power generator. In FIG. 19, the
次に、強化学習装置100は、様々な風速における出力ワット値に基づいて、ストール制御の風力発電機についての特性関数が示す特性曲線を近似する近似曲線fi(t)を求める(ステップS1902)。そして、強化学習装置100は、ストール制御の風力発電機についての特性関数作成処理を終了する。
Next, the
図20は、ピッチ制御の風力発電機についての特性関数作成処理手順の一例を示すフローチャートである。図20において、強化学習装置100は、ピッチ制御の風力発電機における最大ピッチ角MΘを取得する(ステップS2001)。
FIG. 20 is a flowchart showing an example of a characteristic function creation processing procedure for a pitch-controlled wind power generator. In FIG. 20, the
次に、強化学習装置100は、ピッチ制御の風力発電機に対してピッチ角Θ=0を設定する(ステップS2002)。そして、強化学習装置100は、Θ<MΘであるか否かを判定する(ステップS2003)。
Next, the
ここで、Θ<MΘである場合(ステップS2003:Yes)、強化学習装置100は、ステップS2004の処理に移行する。一方で、Θ<MΘではない場合(ステップS2003:No)、強化学習装置100は、ピッチ制御の風力発電機についての特性関数作成処理を終了する。
Here, if Θ <MΘ (step S2003: Yes), the
ステップS2004では、強化学習装置100は、様々な風速におけるピッチ制御の風力発電機からの出力ワット値を観測する(ステップS2004)。次に、強化学習装置100は、様々な風速における出力ワット値に基づいて、ピッチ制御の風力発電機についての特性関数が示す特性曲線を近似する近似曲線fi,Θ(t)を求める(ステップS2005)。
In step S2004, the
そして、強化学習装置100は、ピッチ角Θ=Θ+ΔΘに設定する(ステップS2006)。その後、強化学習装置100は、ステップS2003の処理に戻る。
Then, the
ここで、強化学習装置100は、上述した各種フローチャートのうち一部ステップの処理の順序を入れ替えて実行してもよい。また、強化学習装置100は、上述した各種フローチャートのうち一部ステップの処理を省略してもよい。
Here, the
以上説明したように、強化学習装置100によれば、発電機201に関する状態値が取りうる複数の領域のそれぞれの領域における発電機201に対する指令値ごとの有効性を示す有効性情報を利用して学習を行うことができる。強化学習装置100によれば、観測した発電機201に関する状態値を参照し、特性関数に基づいて、複数の領域のうち連続する2以上の領域を結合した領域における発電機201に対する指令値ごとの有効性を示す有効性情報を生成することができる。強化学習装置100によれば、生成した結合した領域についての有効性情報、および、複数の領域のうち2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行うことができる。これにより、強化学習装置100は、学習を行って更新する対象である有効性情報の数を減少させ、強化学習にかかる処理量の低減化を図ることができる。
As described above, according to the
強化学習装置100によれば、観測した発電機201に関する状態値を参照し、特性関数に基づいて、2以上の領域のそれぞれの領域における発電機201に対する指令値ごとの有効性を示す有効性情報を生成することができる。強化学習装置100によれば、生成した2以上の領域のそれぞれの領域についての有効性情報、および、複数の領域のうち2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行うことができる。これにより、強化学習装置100は、どのような状態値の場合にどのような指令値を出力することが好ましいかを細分化して実行することができる。
According to the
強化学習装置100によれば、発電機201の状態値の組み合わせが取りうる複数の領域のそれぞれの領域における、発電機201の指令値の組み合わせごとの有効性を示す有効性情報を利用して学習を行うことができる。強化学習装置100によれば、観測した発電機201の状態値を参照し、特性関数に基づいて、複数の領域のうち連続する2以上の領域を結合した領域における、発電機201の指令値の組み合わせごとの有効性を示す有効性情報を生成することができる。強化学習装置100によれば、生成した結合した領域についての有効性情報、および、複数の領域のうち2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行うことができる。これにより、強化学習装置100は、発電機201が複数ある場合に適用することができる。
According to the
強化学習装置100によれば、風力発電機についての有効性情報を生成することができる。これにより、強化学習装置100は、風力発電機を含む発電システム200に適用することができる。
The
強化学習装置100によれば、特性関数に基づいて、観測した風速に対応する出力電力を特定し、特定した出力電力に基づいて、結合した領域についての有効性情報を生成することができる。これにより、強化学習装置100は、ストール制御の風力発電機についての有効性情報を生成することができる。
According to the
強化学習装置100によれば、発電機201の受風性能ごとに異なる複数の特性関数のうち、観測した風速および出力電力に対応する特性関数に基づいて、結合した領域についての有効性情報を生成することができる。これにより、強化学習装置100は、ピッチ制御の風力発電機についての有効性情報を生成することができる。
According to the
強化学習装置100によれば、火力発電機についての有効性情報を生成することができる。これにより、強化学習装置100は、火力発電機を含む発電システム200に適用することができる。
The
強化学習装置100によれば、観測した需要電力が閾値以下である場合に、結合した領域についての有効性情報を生成することができる。これにより、強化学習装置100は、比較的大きな出力電力の領域については詳細に検証しなくてもよい場合に、学習を行って更新する対象である有効性情報の数を減少させることができる。ここで、強化学習装置100は、比較的大きな出力電力の領域について結合すれば、発電システムに対する制御に与える悪影響を抑制することができる。
According to the
強化学習装置100によれば、観測した需要電力が閾値を超える場合に、結合した領域についての有効性情報を生成することができる。これにより、強化学習装置100は、比較的小さな出力電力の領域については詳細に検証しなくてもよい場合に、学習を行って更新する対象である有効性情報の数を減少させることができる。ここで、強化学習装置100は、比較的小さな出力電力の領域について結合すれば、発電システムに対する制御に与える悪影響を抑制することができる。
According to the
強化学習装置100によれば、2以上の領域のそれぞれの領域についての有効性情報に基づいて、2以上の領域を結合した領域についての有効性情報を生成することができる。これにより、強化学習装置100は、特性関数が不明であっても、学習を行って更新する対象である有効性情報の数を減少させ、強化学習にかかる処理量の低減化を図ることができる。
According to the
なお、本実施の形態で説明した強化学習方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本実施の形態で説明した強化学習プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本実施の形態で説明した強化学習プログラムは、インターネット等のネットワークを介して配布してもよい。 The reinforcement learning method described in the present embodiment can be realized by executing a prepared program on a computer such as a personal computer or a workstation. The reinforcement learning program described in the present embodiment is recorded in a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, or a DVD, and is executed by being read from the recording medium by the computer. Further, the reinforcement learning program described in the present embodiment may be distributed via a network such as the Internet.
上述した実施の形態に関し、さらに以下の付記を開示する。 Regarding the above-described embodiment, the following supplementary notes are further disclosed.
(付記1)コンピュータに、
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする強化学習プログラム。
(Supplementary note 1) For a computer,
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
For each command value for the generator in a region obtained by combining two or more continuous regions of the plurality of regions with reference to the observed state value for the generator and the characteristic function of the state value for the generator Generates validity information that shows the effectiveness of
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning program characterized by executing processing.
(付記2)前記コンピュータに、
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記2以上の領域のそれぞれの領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする付記1に記載の強化学習プログラム。
(Supplementary note 2) In the computer,
Effectiveness indicating the effectiveness of each command value for the generator in each of the two or more regions based on the characteristic function of the observed state value for the generator with reference to the observed state value for the generator Generate information,
Learning is performed by using the generated validity information about each of the two or more regions and the validity information about each of the plurality of regions other than the two or more regions,
The reinforcement learning program according to
(付記3)前記コンピュータに、
前記発電機が複数ある場合、前記発電機の状態値の組み合わせが取りうる複数の領域のそれぞれの領域における、前記発電機の指令値の組み合わせごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機の状態値を参照し、前記特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における、前記発電機の指令値の組み合わせごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする付記1または2に記載の強化学習プログラム。
(Supplementary note 3) In the computer,
When there are a plurality of generators, learning is performed by using effectiveness information indicating effectiveness of each combination of command values of the generator in each of a plurality of areas that can be taken by a combination of state values of the generator. And then
By referring to the observed state value of the generator, based on the characteristic function, the effectiveness of each combination of the command values of the generator in the region in which two or more continuous regions are combined among the plurality of regions is shown. Generate the validity information shown,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
3. The reinforcement learning program according to
(付記4)前記発電機は、風力発電機であり、
前記発電機に関する状態値は、風速、および、出力電力である、ことを特徴とする付記1〜3のいずれか一つに記載の強化学習プログラム。
(Supplementary Note 4) The generator is a wind power generator,
The reinforcement learning program according to any one of
(付記5)前記特性関数は、風速と前記発電機からの出力電力との関係を示し、
前記結合した領域についての有効性情報を生成する処理は、前記特性関数に基づいて、観測した風速に対応する出力電力を特定し、特定した前記出力電力に基づいて、前記結合した領域についての有効性情報を生成する、ことを特徴とする付記4に記載の強化学習プログラム。
(Supplementary Note 5) The characteristic function indicates a relationship between wind speed and output power from the generator,
The process of generating the validity information about the combined area is based on the characteristic function, specifies the output power corresponding to the observed wind speed, and based on the specified output power, the effective about the combined area. A reinforcement learning program according to appendix 4, wherein the reinforcement learning program generates sex information.
(付記6)前記発電機は、受風性能を変更可能であり、
前記指令値は、受風性能を制御する指令値であり、
前記特性関数は、風速と前記発電機からの出力電力との関係を示し、
前記結合した領域についての有効性情報を生成する処理は、前記発電機の受風性能ごとに異なる複数の前記特性関数のうち、観測した風速および出力電力に対応する前記特性関数に基づいて、前記結合した領域についての有効性情報を生成する、ことを特徴とする付記4に記載の強化学習プログラム。
(Supplementary Note 6) The wind power of the generator can be changed,
The command value is a command value for controlling the wind performance,
The characteristic function indicates the relationship between the wind speed and the output power from the generator,
The process of generating the validity information about the combined region is based on the characteristic function corresponding to the observed wind speed and output power among the plurality of characteristic functions that differ for each wind-receiving performance of the generator, and The reinforcement learning program according to appendix 4, wherein validity information about the combined areas is generated.
(付記7)前記発電機は、火力発電機であり、
前記発電機に関する状態値は、燃料使用量、および、出力電力である、ことを特徴とする付記1〜3のいずれか一つに記載の強化学習プログラム。
(Supplementary Note 7) The generator is a thermal power generator,
The reinforcement learning program according to any one of
(付記8)前記結合した領域についての有効性情報を生成する処理は、観測した需要電力が閾値以下である場合に、前記結合した領域についての有効性情報を生成する、ことを特徴とする付記1〜7のいずれか一つに記載の強化学習プログラム。 (Supplementary Note 8) The processing for generating the validity information about the combined area generates the validity information about the combined area when the observed demand power is less than or equal to a threshold value. The reinforcement learning program according to any one of 1 to 7.
(付記9)前記結合した領域についての有効性情報を生成する処理は、観測した需要電力が閾値を超える場合に、前記結合した領域についての有効性情報を生成する、ことを特徴とする付記1〜7のいずれか一つに記載の強化学習プログラム。 (Supplementary note 9) The process of generating the validity information about the combined area generates the validity information about the combined area when the observed demand power exceeds a threshold value. Reinforcement learning program described in any one of.
(付記10)コンピュータが、
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行することを特徴とする強化学習方法。
(Supplementary note 10) The computer
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
For each command value for the generator in a region obtained by combining two or more continuous regions of the plurality of regions with reference to the observed state value for the generator and the characteristic function of the state value for the generator Generates validity information that shows the effectiveness of
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning method characterized by executing processing.
(付記11)発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
制御部を有することを特徴とする強化学習装置。
(Supplementary Note 11) Learning is performed by using validity information indicating validity of each command value for the generator in each of a plurality of regions in which a state value related to the generator can be taken,
For each command value for the generator in a region obtained by combining two or more continuous regions of the plurality of regions with reference to the observed state value for the generator and the characteristic function of the state value for the generator Generates validity information that shows the effectiveness of
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
A reinforcement learning device having a control unit.
(付記12)コンピュータに、
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
前記複数の領域のうち連続する2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報に基づいて、前記2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする強化学習プログラム。
(Supplementary note 12) In a computer,
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
Based on the validity information indicating the validity of each command value for the generator in each of two or more consecutive regions of the plurality of regions, the generator for the region in which the two or more regions are combined Generates validity information indicating the validity of each command value,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning program characterized by executing processing.
(付記13)コンピュータが、
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
前記複数の領域のうち連続する2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報に基づいて、前記2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行することを特徴とする強化学習方法。
(Supplementary note 13) Computer
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
Based on the validity information indicating the validity of each command value for the generator in each of two or more consecutive regions of the plurality of regions, the generator for the region in which the two or more regions are combined Generates validity information indicating the validity of each command value,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning method characterized by executing processing.
(付記14)発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
前記複数の領域のうち連続する2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報に基づいて、前記2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
制御部を有することを特徴とする強化学習装置。
(Supplementary Note 14) Learning is performed by using validity information indicating validity of each command value for the generator in each of a plurality of regions in which a state value related to the generator can be taken,
Based on the validity information indicating the validity of each command value for the generator in each of two or more consecutive regions of the plurality of regions, the generator for the region in which the two or more regions are combined Generates validity information indicating the validity of each command value,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
A reinforcement learning device having a control unit.
100 強化学習装置
200 発電システム
201 発電機
210 ネットワーク
300 バス
301 CPU
302 メモリ
303 ネットワークI/F
304 記録媒体I/F
305 記録媒体
400 記憶部
401 取得部
402 切替部
403 学習部
404 出力部
501 テーブル生成部
502 区間切替部
503 値設定部
504 行動決定部
505 状態計算部
506 報酬計算部
507 テーブル更新部
601,602,701,702,1000 グラフ
801 通常テーブル
802 粗分割テーブル
1100,1200 予測出力電力テーブル
1310〜1312,1320 フィールド
100
302
304 recording medium I / F
305
Claims (13)
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする強化学習プログラム。 On the computer,
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
For each command value for the generator in a region obtained by combining two or more continuous regions of the plurality of regions with reference to the observed state value for the generator and the characteristic function of the state value for the generator Generates validity information that shows the effectiveness of
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning program characterized by executing processing.
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記2以上の領域のそれぞれの領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする請求項1に記載の強化学習プログラム。 On the computer,
Effectiveness indicating the effectiveness of each command value for the generator in each of the two or more regions based on the characteristic function of the observed state value for the generator with reference to the observed state value for the generator Generate information,
Learning is performed by using the generated validity information about each of the two or more regions and the validity information about each of the plurality of regions other than the two or more regions,
The reinforcement learning program according to claim 1, which executes a process.
前記発電機が複数ある場合、前記発電機の状態値の組み合わせが取りうる複数の領域のそれぞれの領域における、前記発電機の指令値の組み合わせごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機の状態値を参照し、前記特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における、前記発電機の指令値の組み合わせごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする請求項1または2に記載の強化学習プログラム。 On the computer,
When there are a plurality of generators, learning is performed by using effectiveness information indicating effectiveness of each combination of command values of the generator in each of a plurality of areas that can be taken by a combination of state values of the generator. And then
By referring to the observed state value of the generator, based on the characteristic function, the effectiveness of each combination of the command values of the generator in the region in which two or more continuous regions are combined among the plurality of regions is shown. Generate the validity information shown,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
The reinforcement learning program according to claim 1 or 2, which executes a process.
前記発電機に関する状態値は、風速、および、出力電力である、ことを特徴とする請求項1〜3のいずれか一つに記載の強化学習プログラム。 The generator is a wind generator,
The reinforcement learning program according to any one of claims 1 to 3, wherein the state value regarding the generator is wind speed and output power.
前記結合した領域についての有効性情報を生成する処理は、前記特性関数に基づいて、観測した風速に対応する出力電力を特定し、特定した前記出力電力に基づいて、前記結合した領域についての有効性情報を生成する、ことを特徴とする請求項4に記載の強化学習プログラム。 The characteristic function indicates the relationship between the wind speed and the output power from the generator,
The process of generating the validity information about the combined area is based on the characteristic function, specifies the output power corresponding to the observed wind speed, and based on the specified output power, the effective about the combined area. The reinforcement learning program according to claim 4, wherein sex information is generated.
前記指令値は、受風性能を制御する指令値であり、
前記特性関数は、風速と前記発電機からの出力電力との関係を示し、
前記結合した領域についての有効性情報を生成する処理は、前記発電機の受風性能ごとに異なる複数の前記特性関数のうち、観測した風速および出力電力に対応する前記特性関数に基づいて、前記結合した領域についての有効性情報を生成する、ことを特徴とする請求項4に記載の強化学習プログラム。 The generator is capable of changing the wind receiving performance,
The command value is a command value for controlling the wind performance,
The characteristic function indicates the relationship between the wind speed and the output power from the generator,
The process of generating the validity information about the combined region is based on the characteristic function corresponding to the observed wind speed and output power among the plurality of characteristic functions that differ for each wind-receiving performance of the generator, and The reinforcement learning program according to claim 4, wherein validity information about the combined regions is generated.
前記発電機に関する状態値は、燃料使用量、および、出力電力である、ことを特徴とする請求項1〜3のいずれか一つに記載の強化学習プログラム。 The generator is a thermal power generator,
The reinforcement learning program according to any one of claims 1 to 3, wherein the state value regarding the generator is a fuel usage amount and an output power.
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行することを特徴とする強化学習方法。 Computer
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
For each command value for the generator in a region obtained by combining two or more continuous regions of the plurality of regions with reference to the observed state value for the generator and the characteristic function of the state value for the generator Generates validity information that shows the effectiveness of
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning method characterized by executing processing.
観測した前記発電機に関する状態値を参照し、前記発電機に関する状態値についての特性関数に基づいて、前記複数の領域のうち連続する2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
制御部を有することを特徴とする強化学習装置。 Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
For each command value for the generator in a region obtained by combining two or more continuous regions of the plurality of regions with reference to the observed state value for the generator and the characteristic function of the state value for the generator Generates validity information that shows the effectiveness of
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
A reinforcement learning device having a control unit.
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
前記複数の領域のうち連続する2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報に基づいて、前記2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行させることを特徴とする強化学習プログラム。 On the computer,
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
Based on the validity information indicating the validity of each command value for the generator in each of two or more consecutive regions of the plurality of regions, the generator for the region in which the two or more regions are combined Generates validity information indicating the validity of each command value,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning program characterized by executing processing.
発電機に関する状態値が取りうる複数の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を利用して学習を行い、
前記複数の領域のうち連続する2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報に基づいて、前記2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
処理を実行することを特徴とする強化学習方法。 Computer
Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
Based on the validity information indicating the validity of each command value for the generator in each of two or more consecutive regions of the plurality of regions, the generator for the region in which the two or more regions are combined Generates validity information indicating the validity of each command value,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
Reinforcement learning method characterized by executing processing.
前記複数の領域のうち連続する2以上の領域のそれぞれの領域における前記発電機に対する指令値ごとの有効性を示す有効性情報に基づいて、前記2以上の領域を結合した領域における前記発電機に対する指令値ごとの有効性を示す有効性情報を生成し、
生成した前記結合した領域についての有効性情報、および、前記複数の領域のうち前記2以上の領域以外のそれぞれの領域についての有効性情報を利用して学習を行う、
制御部を有することを特徴とする強化学習装置。 Learning is performed by using the validity information indicating the validity of each command value for the generator in each of the plurality of regions where the state value related to the generator can take,
Based on the validity information indicating the validity of each command value for the generator in each of two or more consecutive regions of the plurality of regions, the generator for the region in which the two or more regions are combined Generates validity information indicating the validity of each command value,
Learning is performed by using the generated validity information about the combined region and the validity information about each region other than the two or more regions among the plurality of regions,
A reinforcement learning device having a control unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193537A JP7187961B2 (en) | 2018-10-12 | 2018-10-12 | Reinforcement learning program, reinforcement learning method, and reinforcement learning device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018193537A JP7187961B2 (en) | 2018-10-12 | 2018-10-12 | Reinforcement learning program, reinforcement learning method, and reinforcement learning device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020061909A true JP2020061909A (en) | 2020-04-16 |
JP7187961B2 JP7187961B2 (en) | 2022-12-13 |
Family
ID=70220451
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018193537A Active JP7187961B2 (en) | 2018-10-12 | 2018-10-12 | Reinforcement learning program, reinforcement learning method, and reinforcement learning device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7187961B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272646A (en) * | 2006-03-31 | 2007-10-18 | Hitachi Ltd | Controller for plant |
JP2013084175A (en) * | 2011-10-12 | 2013-05-09 | Sony Corp | Information processing apparatus, information processing method, and program |
-
2018
- 2018-10-12 JP JP2018193537A patent/JP7187961B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007272646A (en) * | 2006-03-31 | 2007-10-18 | Hitachi Ltd | Controller for plant |
JP2013084175A (en) * | 2011-10-12 | 2013-05-09 | Sony Corp | Information processing apparatus, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7187961B2 (en) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Zhao et al. | Distributionally robust contingency-constrained unit commitment | |
CN110854932B (en) | Multi-time scale optimization scheduling method and system for AC/DC power distribution network | |
JP5639540B2 (en) | Storage battery supply and demand plan creation device and storage battery supply and demand plan creation method | |
WO2009107373A1 (en) | Operation plan creatiion method and device for energy storage device | |
Fan et al. | Min-max regret bidding strategy for thermal generator considering price uncertainty | |
US20120095608A1 (en) | Demand prediction apparatus, and computer readable, non-transitory storage medium | |
JP7053299B2 (en) | Operation plan generation device and operation plan generation method | |
JP2007056686A (en) | Device for predicting power generated after several hours on basis of predicted wind velocity in wind power generator | |
CN107453408B (en) | Micro-grid energy optimization scheduling method considering uncertainty | |
JP5078128B2 (en) | Operation method, prediction error compensation device, meteorological power generation planning device, and program | |
JP2007028739A (en) | Method of planning adaptive start and stoppage of generator corresponding to change in load demand | |
Córdova et al. | Frequency-constrained energy management system for isolated microgrids | |
JP2017135976A (en) | Demand side management method and system | |
JP2006352933A (en) | Power supply control method and system | |
JP5820240B2 (en) | Power system control system and power system control method | |
KR20150118699A (en) | Method of visualizing estimating generation amount of wind power using gis base realtime weather information | |
JP2005304118A (en) | Controller and control method of distributed energy system | |
Liu et al. | Stochastic unit commitment with high-penetration offshore wind power generation in typhoon scenarios | |
JP5242355B2 (en) | Electric heat cogeneration energy system | |
JP2020061909A (en) | Reinforcement learning program, reinforcement learning method, and reinforcement learning device | |
CN109787217A (en) | Based on the modified spare clearing method out of wind-powered electricity generation multistate model and opportunity cost | |
JP3969141B2 (en) | Generator start / stop plan preparation device and method | |
CN110097235B (en) | Scheduling optimization method, device and medium for combined power generation | |
JP2010220363A (en) | Device, method and program for estimating power supply capacity of small-scale power system | |
JP2017042032A (en) | Method for managing energy production of energy system, and related management device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210709 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220621 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220805 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7187961 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |