JP6919856B2 - 強化学習プログラム、強化学習方法、および強化学習装置 - Google Patents

強化学習プログラム、強化学習方法、および強化学習装置 Download PDF

Info

Publication number
JP6919856B2
JP6919856B2 JP2017177970A JP2017177970A JP6919856B2 JP 6919856 B2 JP6919856 B2 JP 6919856B2 JP 2017177970 A JP2017177970 A JP 2017177970A JP 2017177970 A JP2017177970 A JP 2017177970A JP 6919856 B2 JP6919856 B2 JP 6919856B2
Authority
JP
Japan
Prior art keywords
time
input
reinforcement learning
output
past
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017177970A
Other languages
English (en)
Other versions
JP2019053589A (ja
Inventor
智丈 佐々木
智丈 佐々木
英治 内部
英治 内部
賢治 銅谷
賢治 銅谷
穴井 宏和
宏和 穴井
仁史 屋並
仁史 屋並
秀直 岩根
秀直 岩根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
kinawa Institute of Science and Technology Graduate University
Original Assignee
Fujitsu Ltd
kinawa Institute of Science and Technology Graduate University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd, kinawa Institute of Science and Technology Graduate University filed Critical Fujitsu Ltd
Priority to JP2017177970A priority Critical patent/JP6919856B2/ja
Priority to US16/130,482 priority patent/US11645574B2/en
Publication of JP2019053589A publication Critical patent/JP2019053589A/ja
Application granted granted Critical
Publication of JP6919856B2 publication Critical patent/JP6919856B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/08Configuration management of networks or network elements
    • H04L41/0803Configuration setting
    • H04L41/0813Configuration setting characterised by the conditions triggering a change of settings
    • H04L41/0816Configuration setting characterised by the conditions triggering a change of settings the condition being an adaptation, e.g. in response to network events
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/16Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks using machine learning or artificial intelligence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L43/00Arrangements for monitoring or testing data switching networks
    • H04L43/08Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Feedback Control In General (AREA)

Description

本発明は、強化学習プログラム、強化学習方法、および強化学習装置に関する。
従来、制御対象(環境)に対する入力に応じた制御対象の即時コストまたは即時報酬に基づき、制御対象の累積コストまたは累積報酬を示す価値関数を最小化または最大化するような制御則を学習し、制御対象に対する入力値を決定する強化学習の技術がある。
先行技術としては、例えば、制御対象(環境)から得られる第1報酬に応じて決定される、学習結果としての第1価値関数の時間微分である第1価値勾配関数の値が、第2報酬の評価に際して活用され、第2報酬に基づいて行動方策が決定されるものがある。
特開2010−134907号公報
しかしながら、制御対象の状態を直接観測することができず、かつ、制御対象に対する入力に応じて即時コストまたは即時報酬にどのような影響があるかが不明であるような場合がある。この場合、従来技術では、制御対象に対する入力値を精度よく決定することが難しい。
1つの側面では、本発明は、制御対象に対する入力値を精度よく決定しやすくすることができる強化学習プログラム、強化学習方法、および強化学習装置を提供することを目的とする。
1つの実施態様によれば、現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、推定した前記係数を用いた前記価値関数に基づき、推定した後の時刻における入力値を決定する強化学習プログラム、強化学習方法、および強化学習装置が提案される。
本発明の一態様によれば、制御対象に対する入力値を精度よく決定しやすくすることができるという効果を奏する。
図1は、実施の形態にかかる強化学習方法の一実施例を示す説明図である。 図2は、強化学習装置100のハードウェア構成例を示すブロック図である。 図3は、強化学習装置100の機能的構成例を示すブロック図である。 図4は、制御対象110の具体例を示す説明図(その1)である。 図5は、制御対象110の具体例を示す説明図(その2)である。 図6は、バッチ処理形式の強化学習処理手順の一例を示すフローチャートである。 図7は、逐次処理形式の強化学習処理手順の一例を示すフローチャートである。
以下に、図面を参照して、本発明にかかる強化学習プログラム、強化学習方法、および強化学習装置の実施の形態を詳細に説明する。
(実施の形態にかかる強化学習方法の一実施例)
図1は、実施の形態にかかる強化学習方法の一実施例を示す説明図である。強化学習装置100は、制御対象110に対する入力値を決定することにより、制御対象110を制御するコンピュータである。強化学習装置100は、例えば、サーバやPC(Personal Computer)、マイクロコントローラなどである。
制御対象110は、何らかの事象であり、例えば、現実に存在する物理系である。制御対象は環境(environment)とも呼ばれる。制御対象110は、具体的には、サーバルームや発電機などである。入力(input)は、制御対象110に対する操作である。入力は、行動(action)とも呼ばれる。制御対象110に対する入力に応じて、制御対象110の状態(state)が変化し、制御対象110の出力(output)が観測可能である。
ここで、制御対象110を制御する制御手法は、例えば、下記の第1の制御手法〜第5の制御手法などが考えられる。
具体的には、下記の非特許文献1を参考に、第1の制御手法が考えられる。第1の制御手法は、制御対象110の変化が離散時間線形時不変確定状態方程式であらわされ、制御対象110の即時コストが2次形式で表現され、制御対象110の状態が直接観測可能である状況を想定した強化学習によって、制御対象110を制御する制御手法である。
非特許文献1:S. J. Bradtke, B. E. Ydstie and A. G. Barto, “Adaptive linear quadratic control using policy iteration”, In Proc. of the 1994 American Control Conference, pp. 3475−3479, Baltimore, USA, 1994.
また、具体的には、第2の制御手法が考えられる。第2の制御手法は、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式とにおける係数行列が既知である状況を想定した制御手法である。第2の制御手法は、制御対象110の出力に基づいて制御対象110の状態を推定することによって、制御対象110を制御する。
また、具体的には、下記の非特許文献2を参考に、第3の制御手法が考えられる。第3の制御手法は、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式との係数行列が既知である状況を想定し、過去の時刻における制御対象110の入出力に基づいて、制御対象110を制御する制御手法である。
非特許文献2:美多, Pang, 劉, 新しいディジタル最適出力フィードバック制御とメカニカルシステムの制御への応用. 計測自動制御学会論文集, Vol.22, No.12, pp.20−26, 1986.
また、具体的には、下記の非特許文献3を参考に、第4の制御手法が考えられる。第4の制御手法は、制御対象110の変化が離散時間線形時不変確定状態方程式であらわされ、制御対象110の即時コストが2次形式で表現され、制御対象110の状態が直接観測可能ではない状況を想定した強化学習によって、制御対象110を制御する制御手法である。第4の制御手法は、現在の時刻における入力値を、過去のk個の時刻における出力と、過去のl個の時刻における入力とに基づいて導出する。
非特許文献3:Steven Joseph Bradtke. 1995. Incremental Dynamic Programming for On−Line Adaptive Optimal Control. Ph.D. Dissertation. University of Massachusetts, Amherst, MA, USA. UMI Order No. GAX95−10446.
また、具体的には、下記の非特許文献4を参考に、第5の制御手法が考えられる。第5の制御手法は、制御対象110の変化が離散時間線形時不変確定状態方程式であらわされ、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列が既知である状況を想定した強化学習によって、制御対象110を制御する制御手法である。第5の制御手法は、現在の時刻における入力値を、現在の時刻以前における出力と、過去の時刻における入力と、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列とに基づいて導出する。
非特許文献4:F. L. Lewis and K. G. Vamvoudakis, “Reinforcement Learning for Partially Observable Dynamic Processes: Adaptive Dynamic Programming Using Measured Output Data”, IEEE Transactions on Systems, Man, and Cybernetics, Part B (Cybernetics), Vol. 41, No. 1, pp.14−25, 2011.
ところで、制御対象110は、図1に示すように、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式とにおける係数行列が未知であり、制御対象110の状態が直接観測可能ではない状況である場合がある。このため、制御対象110が図1に示すような状況である場合についても、制御対象110を制御することが望まれる。
しかしながら、上述した第1の制御手法〜第5の制御手法は、制御対象110が図1に示すような状況である場合について、制御則(control law)を効率よく学習し、制御対象110に対する入力値を精度よく決定することが難しい。制御則は、方策(policy)とも呼ばれる。
例えば、第1の制御手法は、制御対象110の状態が直接観測可能である状況であることを想定しており、図1に示すような状況に対しては適用することが難しい。第1の制御手法は、直接観測可能である制御対象110の出力を、制御対象110の状態の代わりとして扱うことにより、図1に示すような状況に適用したとしても、制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することができない。
また、例えば、第2の制御手法や第3の制御手法は、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式とにおける係数行列が既知である状況を想定しており、図1に示すような状況に対しては適用することが難しい。
また、例えば、第4の制御手法は、現在の時刻における入力値を、過去のk個の時刻における出力と、過去のl個の時刻における入力とに基づいて導出する際、kとlとに設定することが好ましい値を特定することが難しい。そして、第4の制御手法は、kとlとに設定することが好ましい値よりも比較的大きい値を設定してしまうと、制御則を効率よく学習することができない。
また、第4の制御手法は、kとlとに設定することが好ましい値よりも小さい値を設定してしまうと、制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することが難しい。また、第4の制御手法は、現在の時刻における入力値を決定する際、現在の時刻における出力を用いていないため、制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することが難しい。
また、例えば、第5の制御手法は、制御則の一部として即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列を用いるため、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列が既知である状況でなければ、現在の時刻の入力値を決定することができない。このため、第5の制御手法は、図1に示すような状況に対しては適用することが難しい。
そこで、本実施の形態では、制御対象110の状態を直接観測することができず、制御対象110に対する入力に応じて即時コストまたは即時報酬にどのような影響があるかが不明である状況に対しても適用することができる強化学習方法について説明する。
図1の例では、制御対象110が図1に示すような状況である場合について、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式とが規定され、問題設定が行われる。問題設定の具体例は、実施例に後述する。
強化学習装置100は、この問題設定を、現在の時刻より過去の時刻における入力と、現在の時刻および現在の時刻より過去の時刻における出力とに関して完全観測である問題設定と等価な問題設定として扱い、下記の動作を行う。
強化学習装置100は、価値関数の係数を、過去の時刻における入力と、現在の時刻および過去の時刻における出力と、過去の時刻における入力に応じたコストまたは報酬とに基づき推定する。価値関数は、過去の時刻における入力と、現在の時刻および過去の時刻における出力との二次形式により表現される。価値関数の係数を推定する具体例は、実施例に後述する。
強化学習装置100は、推定した係数を用いた価値関数に基づき、推定した後の時刻における入力値を決定する。強化学習装置100は、例えば、推定した係数を用いた価値関数に基づき、制御対象110の制御則の係数を特定し、その制御則に基づいて、推定した後の時刻における入力値を決定する。入力値を決定する具体例は、実施例に後述する。
これにより、強化学習装置100は、制御対象110が図1に示すような状況である場合についても、強化学習によって、制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することができる。制御則を効率よく学習するとは、価値関数が効率よく最適化されるように、制御則を順次更新することである。
また、強化学習装置100は、制御対象110が図1に示すような状況である場合についても強化学習を実現することができ、制御対象110として設定可能な事象の範囲を拡大することができる。強化学習装置100は、例えば、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式とにおける係数行列が未知であっても、強化学習を実現することができる。また、強化学習装置100は、制御対象110の状態が直接観測することができなくても、強化学習を実現することができる。
ここで、上述した第4の制御手法は、kとlとに好ましい値を設定することが難しいため、制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することが難しい。これに対し、強化学習装置100は、kとlとを用いないため、制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定しやすくすることができる。
また、上述した第5の制御手法は、制御則の一部として即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列を用いるため、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列が既知である状況を想定している。これに対し、強化学習装置100は、制御対象の問題設定を、完全観測である問題設定と等価として扱うことができるため、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列を用いなくてもよい。このため、強化学習装置100は、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列が未知である場合についても適用することができ、制御対象110として設定可能な事象の範囲を拡大することができる。
(強化学習装置100のハードウェア構成例)
次に、図2を用いて、図1に示した強化学習装置100のハードウェア構成例について説明する。
図2は、強化学習装置100のハードウェア構成例を示すブロック図である。図2において、強化学習装置100は、CPU(Central Processing Unit)201と、メモリ202と、ネットワークI/F(Interface)203と、記録媒体I/F204と、記録媒体205とを有する。また、各構成部は、バス200によってそれぞれ接続される。
ここで、CPU201は、強化学習装置100の全体の制御を司る。メモリ202は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)およびフラッシュROMなどを有する。具体的には、例えば、フラッシュROMやROMが各種プログラムを記憶し、RAMがCPU201のワークエリアとして使用される。メモリ202に記憶されるプログラムは、CPU201にロードされることで、コーディングされている処理をCPU201に実行させる。
ネットワークI/F203は、通信回線を通じてネットワーク210に接続され、ネットワーク210を介して他のコンピュータに接続される。そして、ネットワークI/F203は、ネットワーク210と内部のインターフェースを司り、他のコンピュータからのデータの入出力を制御する。ネットワークI/F203には、例えば、モデムやLANアダプタ、シリアル通信アダプタなどを採用することができる。
記録媒体I/F204は、CPU201の制御に従って記録媒体205に対するデータのリード/ライトを制御する。記録媒体I/F204は、例えば、ディスクドライブ、SSD(Solid State Drive)、USB(Universal Serial Bus)ポートなどである。記録媒体205は、記録媒体I/F204の制御で書き込まれたデータを記憶する不揮発メモリである。記録媒体205は、例えば、ディスク、半導体メモリ、USBメモリなどである。記録媒体205は、強化学習装置100から着脱可能であってもよい。
強化学習装置100は、上述した構成部のほか、例えば、キーボード、マウス、ディスプレイ、タッチパネル、プリンタ、スキャナなどを有してもよい。また、強化学習装置100は、記録媒体I/F204や記録媒体205を有していなくてもよい。
(強化学習装置100の機能的構成例)
次に、図3を用いて、強化学習装置100の機能的構成例について説明する。
図3は、強化学習装置100の機能的構成例を示すブロック図である。強化学習装置100は、記憶部300と、観測部301と、推定部302と、決定部303と、出力部304とを含む。
記憶部300は、例えば、図2に示したメモリ202や記録媒体205などの記憶領域によって実現される。観測部301〜出力部304は、制御部となる機能である。観測部301〜出力部304は、具体的には、例えば、図2に示したメモリ202や記録媒体205などの記憶領域に記憶されたプログラムをCPU201に実行させることにより、または、ネットワークI/F203により、その機能を実現する。各機能部の処理結果は、例えば、図2に示したメモリ202や記録媒体205などの記憶領域に記憶される。
記憶部300は、制御対象110の入力と、出力と、即時コストまたは即時報酬とを蓄積する。これにより、記憶部300は、制御対象110の入力と、出力と、即時コストまたは即時報酬とを、推定部302や決定部303に参照させることができる。
観測部301は、制御対象110の出力と、即時コストまたは即時報酬とを観測し、記憶部300に出力する。これにより、観測部301は、制御対象110の入力と、出力と、即時コストまたは即時報酬とを、記憶部300に蓄積させることができる。
推定部302は、価値関数の係数を、現在の時刻より過去の時刻における入力と、現在の時刻および過去の時刻における出力と、過去の時刻における入力に応じた即時コストまたは即時報酬とに基づき推定する。価値関数は、制御対象110を評価する関数であり、制御対象110の損失であるコストを累積した累積コスト、または制御対象110の利益である報酬を累積した累積報酬などを示す関数である。これにより、推定部302は、価値関数の係数を推定し、推定した係数を用いた価値関数の推定関数を特定することができる。
価値関数は、例えば、過去の時刻における入力と、現在の時刻および過去の時刻における出力との二次形式により表現される。価値関数は、例えば、状態価値関数である。価値関数は、例えば、実施例において後述する式(19)によって表現される。これにより、推定部302は、状態価値関数を用いることができる。
価値関数は、例えば、現在の時刻および過去の時刻における入力と、現在の時刻および過去の時刻における出力との二次形式により表現される。価値関数は、例えば、実施例において後述する式(20)によって表現される。これにより、推定部302は、状態−行動価値関数を用いることができる。
推定部302は、過去の時刻における入力と現在の時刻および過去の時刻における出力とに関して完全観測である、価値関数を用いた制御問題について、価値関数の係数を推定する。推定部302は、例えば、実施例において後述するベクトルztについて完全観測である制御問題について、価値関数の係数を推定する。制御問題は、入力からコストまたは報酬への影響度合いを示す係数が未知であってもよい。推定部は、価値関数の係数の推定を複数回繰り返してもよい。
決定部303は、推定した係数を用いた価値関数に基づき、推定した後の時刻における入力値を決定する。決定部303は、例えば、推定した係数を用いた価値関数における、推定した係数と、入力値を算出する制御則における係数との関係に基づいて、制御則における係数を算出し、算出した係数を用いて入力値を決定する。これにより、決定部303は、精度よく入力値を決定することができる。
決定部303は、推定した係数を用いた価値関数に基づき、推定した後の時刻における出力を用いて、推定した後の時刻における入力値を決定する。決定部303は、推定した以降、過去の時刻における入力と現在の時刻および過去の時刻における出力を用いて現在の時刻における入力値を決定する。これにより、決定部303は、精度よく入力値を決定することができる。
出力部304は、決定した入力値を制御対象110に対して出力する。また、出力部304は、決定した入力値を記憶部300に対して出力する。これにより、出力部304は、入力値を記憶部300に記憶し、推定部302や決定部303に参照させることができる。
(強化学習の実施例)
次に、強化学習の実施例について説明する。実施例において、下記式(1)〜下記式(9)によって、制御対象110の状態方程式と、出力方程式と、即時コストの2次形式の方程式とが規定され、問題設定が行われる。実施例において、制御対象110の状態は、直接観測可能ではない。
Figure 0006919856
上記式(1)は、制御対象110の状態方程式である。tは、単位時間の倍数で示される時刻である。t+1は、時刻tから単位時間経過した次の時刻である。xt+1は、次の時刻t+1における状態である。xtは、時刻tにおける状態である。utは、時刻tにおける入力である。A、Bは、係数行列である。上記式(1)は、次の時刻t+1における状態xt+1が、時刻tにおける状態xtと、時刻tにおける入力utによって決定される関係があることを示す。係数行列A,Bは、未知である。
Figure 0006919856
上記式(2)は、制御対象110の出力方程式である。ytは、時刻tにおける出力である。Cは、係数行列である。上記式(2)は、時刻tにおける出力ytが、時刻tにおける状態xtによって決定される関係があることを示す。係数行列Cは、未知である。
Figure 0006919856
上記式(3)は、状態x0が、n次元であることを示す。nは、既知である。
Figure 0006919856
上記式(4)は、入力utが、m次元であることを示す。
Figure 0006919856
上記式(5)は、係数行列Aが、n×n次元(n行n列である)であることを示し、係数行列Bが、n×m次元(n行m列である)であることを示し、係数行列Cが、p×n次元(p行n列)であることを示す。(A,B)は可安定(stabilizable)である。
Figure 0006919856
上記式(6)は、制御対象110の即時コストの方程式である。ctは、時刻tにおける入力utに応じて単位時間後に発生する即時コストである。上付き文字Tは、転置を示す。上記式(6)は、即時コストctが、時刻tにおける出力ytと、時刻tにおける入力utとの2次形式によって決定される関係があることを示す。係数行列Q,Rは、未知である。
Figure 0006919856
上記式(7)は、係数行列Qが、n×n次元(n行n列である)であることを示す。≧0は、半正定値対称行列を示す。
Figure 0006919856
上記式(8)は、係数行列Rが、m×m次元(m行m列である)であることを示す。>0は、正定値対称行列を示す。
Figure 0006919856
上記式(9)は、(A,C)が可観測であり、可観測性行列(observability matrix)のランクがnであることを示す。
また、実施例において、状態方程式と、出力方程式と、即時コストの2次形式の方程式とにおける係数行列が既知である状況において好ましい制御則に基づき、下記式(10)によって、時刻tにおける入力utを決定するための制御則が規定される。
Figure 0006919856
y itは、時刻tにおける係数行列であって、出力yt-iに関する係数行列を示す。Fu itは、時刻tにおける係数行列であって、入力ut-iに関する係数行列を示す。上記式(10)は、制御対象110の状態の次元が既知である状況を利用し、時刻tからn−1単位時間前までの出力および入力に基づいて、時刻tにおける入力を決定する方程式である。εtは、時刻tにおける探索項である。もし可観測指数が既知である場合は、それを利用してもよい。
ここで、即時コストctが、出力ytと入力utとの2次形式であり、(C,A)が、可観測であるという状況において、下記式(11)が設定される。
Figure 0006919856
tは、時刻tの1単位時間前からn−1単位時間前までの入力ut-1〜ut-(n-1)と、時刻tからn−1単位時間前までの出力yt〜yt-(n-1)とを集めたベクトルである。
上記式(11)を設定すると、下記式(12)が導出される。
Figure 0006919856
これにより、強化学習装置100は、制御対象110を、直接観測可能であるベクトルztに関する完全観測である制御問題として扱うことができる。そして、強化学習装置100は、上記式(12)を利用し、ベクトルztと即時コストctに基づいて、下記式(13)によって規定される係数行列Ftを更新する。
Figure 0006919856
tは、上記式(10)における係数行列Fy it,Fu itを集めた係数行列である。Ftは、例えば、時刻tにおいて更新された後の係数行列を示す。強化学習装置100は、以降の時刻tにおいて、更新した係数行列Ftに基づいて、上記式(10)によって入力utを決定する。
以下の説明では、係数行列Ftを、いつの時刻tにおいて更新された係数行列であるか区別せず、単に「係数行列F」と表記する場合がある。次に、上記式(13)によって規定される係数行列Fを更新する具体例について説明する。
(係数行列Fを更新する具体例)
ここで、上記式(1)〜上記式(9)による問題設定が、ベクトルztに関して完全観測である問題設定と等価として扱うことができる性質を有することについて説明する。
まず、上記式(1)を上記式(2)に代入すると、時刻t〜t−nそれぞれの時刻の出力yt〜yt-nと、状態方程式と出力方程式とにおける係数行列A,B,Cなどを用いた数式とを等号で接続した方程式が作成される。時刻tの出力ytは、例えば、係数行列A,B,Cと、その時刻tより過去の入力ut-1〜ut-nと、時刻t−nの状態xt-nとを用いた数式と等号で接続される。
また、時刻t−1の出力yt-1は、例えば、係数行列A,B,Cと、その時刻t−1より過去の入力ut-2〜ut-nと、時刻t−nの状態xt-nとを用いた数式と等号で接続される。また、時刻t−2〜t−(n−1)のの出力yt-2〜yt-(n-1)は、同様に、係数行列A,B,Cと、その時刻より過去の入力と、時刻t−nの状態xt-nとを用いた数式と等号で接続される。また、時刻t−nの出力yt-nは、例えば、係数行列Cと、時刻t−nの状態xt-nとを用いた数式と等号で接続される。
時刻t−2〜t−(n−1)に関する方程式をまとめると、出力yt-1〜yt-nを有するベクトルと、入力ut-2〜ut-nを有するベクトルと、状態xt-nとに関する方程式が作成される。ここで、(C,A)が可観測であるため、状態xt-nにかかるC,CA,・・・,CAn-1を有する係数行列に左逆行列が存在する。
この左逆行列を利用すると、ベクトルztを用いて、状態xt-nが、係数行列をかけたベクトルzt-1によって表現される。これにより、時刻tの出力ytと、係数行列A,B,Cと、その時刻tより過去の入力ut-1〜ut-nと、時刻t−nの状態xt-nとを用いた数式とを接続した等式は、下記式(14)のように変形される。
Figure 0006919856
z、Bzは、係数行列である。上記式(14)は、次の時刻t+1におけるベクトルzt+1が、時刻tにおけるベクトルztと、時刻tにおける入力utによって決定される関係があることを示す。係数行列Az、Bzは、未知である。上記式(14)に対して、下記式(15)を適用すると、下記式(16)が導出される。
Figure 0006919856
Figure 0006919856
上記式(16)に基づき、下記式(17)および下記式(18)が定義される。
Figure 0006919856
sは、非負の整数である。
Figure 0006919856
φ+S(z:F)は、係数行列Fを用いたフィードバック制御においてzから変化し始めた系のs時間後の状態である。上記式(6)を参照し、上記式(18)を用いると、状態価値関数として、下記式(19)が定義される。
Figure 0006919856
γは、割引率である。γは、0以上1以下である。また、状態−行動価値関数として、下記式(20)が定義される。
Figure 0006919856
これにより、上記式(1)〜上記式(9)による問題設定は、上記式(14)と上記式(19)または上記式(20)とを用いた、ベクトルztに関して完全観測である問題設定と等価になる。そこで、強化学習装置100は、上記式(19)または上記式(20)を用いて、係数行列Fを更新する。
強化学習装置100は、具体的には、上記式(20)の関数Qを、uとzとの2次形式で表現し、即時コストと等号で接続した方程式を作成する。強化学習装置100は、観測した入力ut,ut-1,・・・,ut-n-1とベクトルzt,zt-1,・・・,zt-n-1と即時コストct-1,ct-2,・・・,ct-n-2とを教師データに用いて、この方程式のuとzとにかかる係数行列を算出する。
ここで、強化学習装置100は、係数行列を算出する際、例えば、一括最小二乗法、逐次最小二乗法、一括LSTDアルゴリズム、逐次LSTDアルゴリズムなどを用いることができる。一括最小二乗法、逐次最小二乗法、一括LSTDアルゴリズム、逐次LSTDアルゴリズムなどについては、下記非特許文献5や下記非特許文献6を参照することができる。
非特許文献5:Y. Zhu and X. R. Li, “Recursive Least Squares with Linear Constraints”, Communications in Information and Systems, Vol. 7, No. 3, pp. 287−312, 2007.
非特許文献6:C. Dann and G. Neumann and J. Peters, “Policy Evaluation with Temporal Differences: A Survey and Comparison”, Journal of Machine Learning Research, Vol. 15, pp. 809−883, 2014.
強化学習装置100は、算出した係数行列と、関数Qをuで微分した結果をゼロとした方程式に基づいて係数行列Fを更新する。また、係数行列Fの更新については、上述した非特許文献1を参照することができる。
そして、強化学習装置100は、更新した係数行列Fを用いて、上記式(10)に基づいて、現在の時刻における入力値を決定する。ここでは、強化学習装置100が、即時コストを用いる場合について説明したが、これに限らない。例えば、強化学習装置100が、即時報酬を用いる場合があってもよい。
これにより、強化学習装置100は、現在の時刻における入力値を決定する際、現在の時刻における出力を用いるため、制御対象110に対する入力値を精度よく決定することができ、累積コストを効率よく最小化することができる。このため、強化学習装置100は、制御対象110の状態が好ましい状態になるまでにかかる時間の低減化を図ることができる。また、強化学習装置100は、制御対象110の状態が、外部要因によって変化した場合でも、その変化から比較的短い時間で、制御対象110を効率よく制御することができる。
(制御対象110の具体例)
次に、図4および図5を用いて、制御対象110の具体例について説明する。
図4および図5は、制御対象110の具体例を示す説明図である。図4の例では、制御対象110は、熱源であるサーバ401と、CRACやChillerなどの冷却器402とを含むサーバルーム400である。
入力は、冷却器402に対する設定温度や設定風量である。出力は、サーバルーム400に設けられたセンサ装置からのセンサデータであり、例えば、温度などである。出力は、制御対象110以外から得られる制御対象110に関するデータであってもよく、例えば、気温や天気などであってもよい。状態は、例えば、出力として観測可能ではない温度を含む、サーバルーム400における温度などである。即時コストは、例えば、サーバルーム400の5分間の消費電力量である。価値関数は、例えば、サーバルーム400の累積消費電力量である。
ここで、図4の例では、冷却器402に対する設定温度や設定風量が、サーバルーム400の消費電力に与える影響を解析することは難しい傾向があり、その影響が不明である場合がある。換言すれば、入力が即時コストに与える影響が不明である場合があり、即時コストの2次形式の方程式における入力にかかる係数行列が不明である場合がある。この場合であっても、強化学習装置100は、制御対象110を制御することができる。
ここで、第4の制御手法は、kとlとに好ましい値を設定することが難しいため、図4の例において制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することが難しい。これに対し、強化学習装置100は、kとlとを用いないため、図4の例においても制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定しやすくすることができる。
また、例えば、第4の制御手法は、現在の時刻における入力値を決定する際、現在の時刻における出力を用いていないため、図4の例において制御則を効率よく学習し、制御対象110に対する入力値を精度よく決定することが難しい。これに対し、強化学習装置100は、現在の時刻における入力値を決定する際、現在の時刻における出力を用いるため、図4の例においても制御対象110に対する入力値を精度よく決定することができる。
第5の制御手法は、制御則の一部として即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列を用いるため、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列が既知である状況を想定してしまっており、図4の例において制御則を学習することができない。これに対し、強化学習装置100は、即時コストの2次形式の方程式において制御対象110の入力にかかる係数行列が未知であってもよいため、制御対象110として設定可能な事象の範囲を拡大することができる。
図5の例では、制御対象110は、発電機500である。入力は、発電機500に対する指令値である。出力は、発電機500に設けられたセンサ装置からのセンサデータである。状態は、例えば、発電機500のタービンの回転量などである。即時報酬は、例えば、発電機500の5分間の発電量である。価値関数は、例えば、発電機500の累積発電量である。
ここで、図5の例では、発電機500に対する指令値が、発電機500の発電量に与える影響が不明である場合がある。換言すれば、入力が即時報酬に与える影響が不明である場合があり、即時報酬の2次形式の方程式における入力にかかる係数行列が不明である場合がある。この場合であっても、強化学習装置100は、制御対象110を制御することができる。また、制御対象110は、例えば、化学プラントや自律移動ロボット、産業用ロボットであってもよい。
(強化学習処理手順の一例)
次に、図6および図7を用いて、強化学習処理手順の一例について説明する。
図6は、バッチ処理形式の強化学習処理手順の一例を示すフローチャートである。図6の例では、強化学習装置100が、価値関数として、状態行動価値関数を用いる場合について説明する。
図6において、まず、強化学習装置100は、係数行列Fを初期化し、入力u0,u1,・・・,un-2を決定し、出力y0,y1,・・・,yn-2と、即時コストc0,c1,・・・,cn-3とを観測する(ステップS601)。
次に、強化学習装置100は、前回の入力ut-1に応じた、出力ytと、即時コストct-1とを観測し、入力ut=Fzt+εtを算出する(ステップS602)。そして、強化学習装置100は、ステップS602をN回繰り返したか否かを判定する(ステップS603)。
ここで、N回繰り返していない場合(ステップS603:No)、強化学習装置100は、ステップS602の処理に戻る。一方で、N回繰り返している場合(ステップS603:Yes)、強化学習装置100は、ステップS604の処理に移行する。
強化学習装置100は、入力ut,ut-1,・・・,ut-n-1と、ベクトルzt,zt-1,・・・,zt-n-1と、即時コストct-1,ct-2,・・・,ct-n-2とに基づいて、価値関数の推定関数を算出する(ステップS604)。
次に、強化学習装置100は、価値関数の推定関数に基づいて、係数行列Fを更新する(ステップS605)。そして、強化学習装置100は、ステップS602の処理に戻る。これにより、強化学習装置100は、制御対象110を制御することができる。強化学習装置100は、状態−行動価値関数ではなく、状態価値関数を用いる場合、上述した各処理において入力utを用いなくてもよい。
図7は、逐次処理形式の強化学習処理手順の一例を示すフローチャートである。図7の例では、強化学習装置100が、価値関数として、状態−行動価値関数を用いる場合について説明する。
図7において、まず、強化学習装置100は、係数行列Fと価値関数の推定関数とを初期化し、入力u0,u1,・・・,un-2を決定し、出力y0,y1,・・・,yn-2と、即時コストc0,c1,・・・,cn-3とを観測する(ステップS701)。
次に、強化学習装置100は、前回の入力ut-1に応じた、出力ytと、即時コストct-1を観測し、入力ut=Fzt+εtを算出する(ステップS702)。そして、強化学習装置100は、入力ut,ut-1と、ベクトルzt,zt-1と、即時コストct-1とに基づいて、価値関数の推定関数を更新する(ステップS703)。
次に、強化学習装置100は、ステップS703をN回繰り返したか否かを判定する(ステップS704)。ここで、N回繰り返していない場合(ステップS704:No)、強化学習装置100は、ステップS702の処理に戻る。一方で、N回繰り返している場合(ステップS704:Yes)、強化学習装置100は、ステップS705の処理に移行する。
次に、強化学習装置100は、価値関数の推定関数に基づいて、係数行列Fを更新する(ステップS705)。そして、強化学習装置100は、ステップS702の処理に戻る。これにより、強化学習装置100は、制御対象110を制御することができる。強化学習装置100は、状態−行動価値関数ではなく、状態価値関数を用いる場合、上述した各処理において入力utを用いなくてもよい。
以上説明したように、強化学習装置100によれば、価値関数の係数を、過去の時刻における入力と、現在の時刻および過去の時刻における出力と、過去の時刻における入力に応じたコストまたは報酬とに基づき推定することができる。強化学習装置100によれば、推定した係数を用いた価値関数に基づき、推定した後の時刻における入力値を決定することができる。これにより、強化学習装置100は、制御則を効率よく学習することができ、入力値を精度よく決定することができる。
強化学習装置100によれば、価値関数として、現在の時刻および過去の時刻における入力と、現在の時刻および過去の時刻における出力との二次形式により表現される関数を用いることができる。これにより、強化学習装置100は、状態−行動価値関数を用いることができる。
強化学習装置100によれば、価値関数に基づき、推定した後の時刻における出力を用いて、推定した後の時刻における入力値を決定することができる。これにより、強化学習装置100は、入力値を決定する精度の向上を図ることができる。
強化学習装置100によれば、過去の時刻における入力と現在の時刻および過去の時刻における出力とに関して完全観測である、価値関数を用いた制御問題について、価値関数の係数を推定することができる。これにより、強化学習装置100は、入力からコストまたは報酬への影響度合いを示す係数が未知である場合についても、制御則を学習し、入力値を決定することができる。
なお、本実施の形態で説明した強化学習方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション、マイクロコントローラ等のコンピュータで実行することにより実現することができる。本実施の形態で説明した強化学習プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また、本実施の形態で説明した強化学習プログラムは、インターネット等のネットワークを介して配布してもよい。
上述した実施の形態に関し、さらに以下の付記を開示する。
(付記1)価値関数を用いた強化学習プログラムであって、
現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、
推定した前記係数を用いた前記価値関数に基づき、制御則を規定する係数を決定し、推定した後の時刻における入力値を決定する、
処理をコンピュータに実行させることを特徴とする強化学習プログラム。
(付記2)前記価値関数は、前記現在の時刻および前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される、ことを特徴とする付記1に記載の強化学習プログラム。
(付記3)前記決定する処理は、
前記価値関数に基づき、前記推定した後の時刻における出力を用いて、前記推定した後の時刻における入力値を決定する、ことを特徴とする付記1または2に記載の強化学習プログラム。
(付記4)前記推定する処理は、
入力からコストまたは報酬への影響度合いを示す係数が未知であり、前記過去の時刻における入力と前記現在の時刻および前記過去の時刻における出力とに関して完全観測である、前記価値関数を用いた制御問題について、前記価値関数の係数を推定する、ことを特徴とする付記1〜3のいずれか一つに記載の強化学習プログラム。
(付記5)前記価値関数に対応する制御対象の状態方程式および出力方程式における状態にかかる係数行列が可観測性条件を満たす、ことを特徴とする付記1〜4のいずれか一つに記載の強化学習プログラム。
(付記6)価値関数を用いた強化学習方法であって、
現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、
推定した前記係数を用いた前記価値関数に基づき、制御則を規定する係数を決定し、推定した後の時刻における入力値を決定する、
処理をコンピュータが実行することを特徴とする強化学習方法。
(付記7)価値関数を用いた強化学習装置であって、
現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、
推定した前記係数を用いた前記価値関数に基づき、制御則を規定する係数を決定し、推定した後の時刻における入力値を決定する、
制御部を有することを特徴とする強化学習装置。
100 強化学習装置
110 制御対象
200 バス
201 CPU
202 メモリ
203 ネットワークI/F
204 記録媒体I/F
205 記録媒体
210 ネットワーク
300 記憶部
301 観測部
302 推定部
303 決定部
304 出力部

Claims (5)

  1. 価値関数を用いた強化学習プログラムであって、
    現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、
    推定した前記係数を用いた前記価値関数に基づき、制御則を規定する係数を決定し、推定した後の時刻における入力値を決定する、
    処理をコンピュータに実行させることを特徴とする強化学習プログラム。
  2. 前記価値関数は、前記現在の時刻および前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される、ことを特徴とする請求項1に記載の強化学習プログラム。
  3. 前記決定する処理は、
    前記価値関数に基づき、前記推定した後の時刻における出力を用いて、前記推定した後の時刻における入力値を決定する、ことを特徴とする請求項1または2に記載の強化学習プログラム。
  4. 価値関数を用いた強化学習方法であって、
    現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、
    推定した前記係数を用いた前記価値関数に基づき、制御則を規定する係数を決定し、推定した後の時刻における入力値を決定する、
    処理をコンピュータが実行することを特徴とする強化学習方法。
  5. 価値関数を用いた強化学習装置であって、
    現在の時刻より過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力との二次形式により表現される前記価値関数の係数を、前記過去の時刻における入力と、前記現在の時刻および前記過去の時刻における出力と、前記過去の時刻における入力に応じたコストまたは報酬とに基づき推定し、
    推定した前記係数を用いた前記価値関数に基づき、制御則を規定する係数を決定し、推定した後の時刻における入力値を決定する、
    制御部を有することを特徴とする強化学習装置。
JP2017177970A 2017-09-15 2017-09-15 強化学習プログラム、強化学習方法、および強化学習装置 Active JP6919856B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017177970A JP6919856B2 (ja) 2017-09-15 2017-09-15 強化学習プログラム、強化学習方法、および強化学習装置
US16/130,482 US11645574B2 (en) 2017-09-15 2018-09-13 Recording medium, reinforcement learning method, and reinforcement learning apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017177970A JP6919856B2 (ja) 2017-09-15 2017-09-15 強化学習プログラム、強化学習方法、および強化学習装置

Publications (2)

Publication Number Publication Date
JP2019053589A JP2019053589A (ja) 2019-04-04
JP6919856B2 true JP6919856B2 (ja) 2021-08-18

Family

ID=65721486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017177970A Active JP6919856B2 (ja) 2017-09-15 2017-09-15 強化学習プログラム、強化学習方法、および強化学習装置

Country Status (2)

Country Link
US (1) US11645574B2 (ja)
JP (1) JP6919856B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020183816A (ja) * 2019-04-26 2020-11-12 ダイキン工業株式会社 熱源システム、目標運転容量推定方法、目標運転容量推定プログラム
JP7171520B2 (ja) * 2019-07-09 2022-11-15 株式会社日立製作所 機械学習システム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5608843A (en) * 1994-08-01 1997-03-04 The United States Of America As Represented By The Secretary Of The Air Force Learning controller with advantage updating algorithm
JP5330138B2 (ja) 2008-11-04 2013-10-30 本田技研工業株式会社 強化学習システム
US20120100134A1 (en) * 2009-04-24 2012-04-26 University Of Southern California Genetic variants in angiogenesis pathway associated with clinical outcome
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
US20180218380A1 (en) * 2015-09-30 2018-08-02 Nec Corporation Information processing system, information processing method, and information processing program
US11205103B2 (en) * 2016-12-09 2021-12-21 The Research Foundation for the State University Semisupervised autoencoder for sentiment analysis
GB2559408B (en) * 2017-02-06 2020-07-08 Toshiba Kk A spoken dialogue system, a spoken dialogue method and a method of adapting a spoken dialogue system
US10176073B2 (en) * 2017-02-24 2019-01-08 International Business Machines Corporation Controlling a system under test using a cognitive control based test runner

Also Published As

Publication number Publication date
JP2019053589A (ja) 2019-04-04
US11645574B2 (en) 2023-05-09
US20190087751A1 (en) 2019-03-21

Similar Documents

Publication Publication Date Title
Zio et al. Particle filtering prognostic estimation of the remaining useful life of nonlinear components
US20160357166A1 (en) Gray box model estimation for process controller
Si et al. Prognostics for linear stochastic degrading systems with survival measurements
Sersour et al. Nonlinear system identification of fractional Wiener models
JP6718500B2 (ja) 生産システムにおける出力効率の最適化
JP6958808B2 (ja) 方策改善プログラム、方策改善方法、および方策改善装置
Imani et al. Multiple model adaptive controller for partially-observed Boolean dynamical systems
JP6919856B2 (ja) 強化学習プログラム、強化学習方法、および強化学習装置
WO2020105468A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラムが格納された非一時的なコンピュータ可読媒体
Liu et al. Robust global identification of LPV errors-in-variables systems with incomplete observations
JP2017227994A (ja) 人流予測装置、パラメータ推定装置、方法、及びプログラム
JP7188194B2 (ja) 方策改善方法、方策改善プログラム、および方策改善装置
JP7476136B2 (ja) 情報処理装置、情報処理方法及びプログラム
Mehta et al. Adaptive sampling design for multi-task learning of Gaussian processes in manufacturing
JP2021064222A (ja) 方策改善方法、方策改善プログラム、および方策改善装置
Akhare et al. DiffHybrid-UQ: Uncertainty Quantification for Differentiable Hybrid Neural Modeling
JP7180520B2 (ja) 更新プログラム、更新方法および情報処理装置
Hu et al. Time-Dependent Reliability Analysis in Design
JP6999207B1 (ja) データ解析方法、データ解析装置、及び、データ解析プログラム
Gralla et al. Inverting prediction models in micro production for process design
US20240152748A1 (en) System and Method for Training of neural Network Model for Control of High Dimensional Physical Systems
JP2023074114A (ja) 情報処理装置、情報処理方法およびプログラム
Elinger et al. Practical Considerations for Use of Causation Entropy in Sparsity Identification
Jeng et al. Closed-loop identification of nonlinear Hammerstein model based on subspace approach
Rebai et al. RIM: A Matlab software tool for recursive identification methods

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20171011

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171011

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210527

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210622

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210713

R150 Certificate of patent or registration of utility model

Ref document number: 6919856

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150