JP2020135390A - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP2020135390A
JP2020135390A JP2019027784A JP2019027784A JP2020135390A JP 2020135390 A JP2020135390 A JP 2020135390A JP 2019027784 A JP2019027784 A JP 2019027784A JP 2019027784 A JP2019027784 A JP 2019027784A JP 2020135390 A JP2020135390 A JP 2020135390A
Authority
JP
Japan
Prior art keywords
network
node
reward
feature amount
output layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019027784A
Other languages
English (en)
Other versions
JP7271216B2 (ja
Inventor
秀将 伊藤
Hidemasa Ito
秀将 伊藤
釜谷 幸男
Yukio Kamaya
幸男 釜谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2019027784A priority Critical patent/JP7271216B2/ja
Priority to US16/789,515 priority patent/US11593618B2/en
Publication of JP2020135390A publication Critical patent/JP2020135390A/ja
Application granted granted Critical
Publication of JP7271216B2 publication Critical patent/JP7271216B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】より正確かつ低負荷で制御対象を制御するためのネットワークを学習ことができる情報処理装置、情報処理方法、およびプログラムを提供することである。【解決手段】実施形態の情報処理装置は、データ取得部と、設定部と、強化学習部とを持つ。データ取得部は、ノード同士の接続関係を記述したグラフ構造のデータを取得する。設定部は、前記データ取得部により取得されたグラフ構造のデータを表す第1のネットワークを設定する。強化学習部は、前記第1のネットワークにおいて、評価対象ノードの出力層の特徴量が報酬に近づくように、且つ、被操作ノードの出力層の特徴量が、前記評価対象ノードの出力層の特徴量を報酬に近づける特徴量となるように、前記第1のネットワークのパラメータを導出する。【選択図】図11

Description

本発明の実施形態は、情報処理装置、情報処理方法、およびプログラムに関する。
近年、人工知能を産業領域に活用する試みが進められている。利用が検討されている人工知能技術は、ディープラーニングやその関連技術が多く、画像認識、故障解析、特性予測などに適用範囲が広がっている。
人工知能を活用して、実システムあるいは、そのシミュレーション環境を対象として、その制御、運転を自動化しようとする試みもある。たとえば、自動運転などは大きな投資が行われている。ここでの人工知能は、強化学習と呼ばれる。強化学習では、システム、あるいはそのシミュレーション環境に対して、強化学習エージェントから、アクション(制御信号)が入力され、それに応じて、システムが状態を遷移する。そのシステム状態が強化学習エージェントに帰還され、帰還されたシステム状態に応じた評価関数(報酬値、あるいはペナルティなど)が計算される。その評価関数を最適にするべく、強化学習エージェントは学習ネットワークのパラメータを更新し、新たなアクションを生成する。ここでの学習ネットワークは主として、ディープラーニングがつかわれている。また、最近では、強化学習を、社会インフラシステム、たとえば、ビル空調管理や電力グリッド制御などに適用する事例も報告されている。これらの社会インフラシステムへの人工知能適用の取組は、今後、益々盛んになると予想されている。
しかしながら、従来の強化学習は、典型的な全結合のニューラルネットワークを学習ネットワークとして採用しているため、制御対象の実際の状態に適切に追従できなかったり、処理負荷が過大になったりする場合があった。また、制御対象の設計変更に対して大規模な再学習が必要になる場合があった。
特開2018−5739号公報
本発明が解決しようとする課題は、より正確かつ低負荷で制御対象を制御するためのネットワークを学習ことができる情報処理装置、情報処理方法、およびプログラムを提供することである。
実施形態の情報処理装置は、データ取得部と、設定部と、強化学習部とを持つ。データ取得部は、ノード同士の接続関係を記述したグラフ構造のデータを取得する。設定部は、前記データ取得部により取得されたグラフ構造のデータを表す第1のネットワークを設定する。強化学習部は、前記第1のネットワークにおいて、評価対象ノードの出力層の特徴量が報酬に近づくように、且つ、被操作ノードの出力層の特徴量が、前記評価対象ノードの出力層の特徴量を報酬に近づける特徴量となるように、前記第1のネットワークのパラメータを導出する。
従来の考え方により、グラフ構造のデータからニューラルネットワークを生成する様子を示す図。 第1の実施形態の手法により、グラフ構造のデータからニューラルネットワークを生成する様子を示す図。 情報処理装置が係数αi,jを決定する手法について説明するための図。 第1の実施形態に係る情報処理装置1のブロック図。 想定ノードANの種別の定義の一例を示す図。 第2の実施形態の手法により、グラフ構造のデータ20から生成されたニューラルネットワークを示す図。 対象データの変更によってニューラルネットワークが変更される様子を示す図。 第2の実施形態に係る情報処理装置2のブロック図。 第2の実施形態を電力送電配電網に適用する様子について説明するための図。 変形例に係るニューラルネットワークの一例を示す図。 第3の実施形態の情報処理装置3の概念図。 第3の実施形態に係る強化学習部70が扱うネットワークの一例を示す図。 第3の実施形態の適用例(その1)を示す図。 第3の実施形態の適用例(その2)を示す図。 第1シミュレーションと第2シミュレーションにおける電圧制御状態、すなわち価値関数を学習曲線として示す図。 第4の実施形態に係る強化学習部70Bが扱うネットワークの一例を示す図。 報酬共有ネットワークの一例を示す図。 図16に示す強化学習ネットワークにLSTMを適用した様子を示す図。 第6の実施形態の情報処理装置6のブロック図。 将来報酬ベクトルRt+1を導出する様子の一例を示す図。 報酬分配行列Dφを作成する様子の一例を示す図。 報酬ベクトルRを導出する様子の一例を示す図。 第6の実施形態の変形例が処理対象とするノードの状態変化の一例を示す図。 結合グラフから報酬分配行列Dφを算出する手順の一例を示す図。 報酬ベクトル(R,Rt+1を導出する様子の一例を示す図。
以下、実施形態の情報処理装置、情報処理方法、およびプログラムを、図面を参照して説明する。
まず、情報処理装置が作成するニューラルネットワークの原理について説明する。図1は、従来の考え方により、グラフ構造のデータからニューラルネットワークを生成する様子を示す図である。
図1の上図は、グラフ構造のデータを模式的に示している。図示の構成では、実ノードRN1〜RN4が存在する。「実ノード」とは、後述する「想定ノード」と区別するための概念であり、情報処理装置が取得するグラフ構造のデータ(処理対象データ、元データ)におけるノードを意味する。このように、グラフ構造のデータは、少なくとも、ノード間の接続関係を記述したデータである。実ノードRN1は、特徴量h1を有しており、実ノードRN2は、特徴量h2を有しており、実ノードRN3は、特徴量h3を有しており、実ノードRN4は、特徴量h4を有している。特徴量は、例えばベクトルであるが、本明細書および図面では、スカラーとベクトルを表記上、区別していない。
図1の上図において、実ノードRN1と実ノードRN2は、実エッジRE12で接続され、実ノードRN1と実ノードRN3は、実エッジRE13で接続され、実ノードRN1と実ノードRN4は、実エッジRE14で接続され、実ノードRN2と実ノードRN3は、実エッジRE23で接続されている。「実エッジ」とは、後述する「想定エッジ」と区別するための概念であり、情報処理装置が取得するグラフ構造のデータにおけるエッジを意味する。また、ここでの「接続されている」とは、互いの特徴量が、次の状態における双方の特徴量に影響を及ぼし合う関係を意味する。なお、この定義は無向グラフを前提としているが、有向グラフを扱う場合、「接続されている」とは、一方の特徴量が、次の状態における他方の特徴量に影響を及ぼす関係を意味する。
図1の下図は、図1の上図に示すグラフ構造のデータに基づいて生成されるニューラルネットワークの一例を示すものである。h#、h#、h#、h#のそれぞれは、実ノードRN1、RN2、RN3、RN4のそれぞれの特徴量の、中間第1層における特徴量である。図示するように、図1の上図における実エッジREが、そのままニューラルネットワークの接続構造となっている。ここで、特徴量h#は、式(1)で表される。式中、α1,1〜α1,4は、伝播度合いを示す係数である。このように、ある実ノードRNの第k層の特徴量は、接続関係にある他の実ノードRNおよびその実ノードRN自身のk−1層の特徴量に対して、それぞれ係数と伝播行列Wを乗算して合計することで求められる。伝播行列に関しては後述する。
#=α1,1・W・h+α1,2・W・h+α1,3・W・h+α1,4・W・h …(1)
(第1の実施形態)
図2は、第1の実施形態の手法により、グラフ構造のデータからニューラルネットワークを生成する様子を示す図である。図示するように、第1の実施形態の情報処理装置は、実ノードRNだけでなく、実エッジREを含めた想定ノードANを設定し、想定ノードANの第k−1層の特徴量を、接続関係にある他の想定ノードAN、およびその想定ノードAN自身の第k層の特徴量に伝播させるニューラルネットワークを生成する。kは1以上の自然数であり、k=0の層は、例えば入力層を意味する。
情報処理装置は、例えば、式(2)に基づいて中間第1層の特徴量を決定する。なお、式(2)は、想定ノード(RN1)の中間第1層の特徴量h1#の計算手法に該当する。一例としてα1,12は、想定ノード(RN1)と想定ノード(RE12)の間の伝播度合いを示す係数である。想定ノード(RN1)の中間第2層の特徴量h1##は、式(3)で表される。中間第3層以降も順次、同様の規則で特徴量が決定される。
#=α1,1・W・h+α1,12・W・h12+α1,13・W・h13+α1,14・W・h14 …(2)
##=α1,1・W・h#+α1,12・W・h12#+α1,13・W・h13#+α1,14・W・h14# …(3)
情報処理装置は、例えば、グラフアテンションネットワークに基づく規則で係数αi,jを決定する。図3は、情報処理装置が係数αi,jを決定する手法について説明するための図である。情報処理装置は、伝播元の想定ノードRNiの特徴量hiに伝播行列Wを乗算して得られるベクトルWhと、伝播先の想定ノードRNjの特徴量hjに伝播行列Wを乗算して得られるベクトルWhとを結合したベクトル(Wh,Wh)を個別ニューラルネットワークa(アテンション)に入力し、出力層のベクトルをシグモイド関数、ReLU、softmax関数などの活性化関数に入力して正規化し、足し合わせることで、係数αi,jを導出する。個別ニューラルネットワークaは、解析対象となる事象について予めパラメータ等が求められたものである。
情報処理装置は、上記の規則に従いつつ、ニューラルネットワークの目的に沿うようにニューラルネットワークのパラメータ(W、αi,j)を決定する。ニューラルネットワークの目的とは、想定ノードANを現在の状態とした場合に将来の状態を出力することであったり、現在の状態を評価するための指標を出力することであったり、現在の状態を分類することであったりする。
図4は、第1の実施形態に係る情報処理装置1のブロック図である。情報処理装置1は、例えば、データ取得部10と、ネットワーク処理部30と、出力部60とを備える。これらの機能部は、例えば、CPU(Central Processing Unit)などのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、GPU(Graphics Processing Unit)などのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDD(Hard Disk Drive)やフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
データ取得部10は、例えば、外部装置からグラフ構造のデータ20を取得し、記憶部に記憶させる。記憶部は、例えば、RAM(Random Access Memory)やHDD(Hard Disk Drive)、フラッシュメモリなどにより実現される。グラフ構造のデータ20は、例えば、図1や図2の上図に示すようなグラフ構造を、実ノードRNと実エッジREのそれぞれのレコードとして表現したデータである。また、グラフ構造のデータ20には、それぞれの実ノードRNの初期状態としての特徴量が付与されていてもよい。なお、実ノードRNの初期状態としての特徴量は、グラフ構造のデータ20とは別のデータセットとして用意されてもよい。データ取得部10は、外部装置からグラフ構造のデータ20を取得するのに代えて、予め記憶部に記憶されているグラフ構造のデータ20を取得する(読み出す)ものであってもよいし、利用者が入力デバイスを用いて入力したグラフ構造のデータ20を取得してもよい。
ネットワーク処理部30は、例えば、実ノード・実エッジ隣接関係抽出部32と、想定ノードメタグラフ化部36と、メタグラフコンボリューション部40とを備える。
実ノード・実エッジ隣接関係抽出部32は、グラフ構造のデータ20を参照し、隣接関係(接続関係)にある実ノードRNと実エッジREを抽出する。例えば、実ノード・実エッジ隣接関係抽出部32は、それぞれの実ノードRNおよび実エッジREについて、隣接関係(接続関係)にある実ノードRNまたは実エッジREを網羅的に抽出し、それらを対応付けた形で記憶部に記憶させる。
想定ノードメタグラフ化部36は、実ノード・実エッジ隣接関係抽出部32により抽出された実ノードRNと実エッジREが接続されるように、想定ノードANの状態を層状に繋いだニューラルネットワークを生成する。この際に、想定ノードメタグラフ化部36は、前述したグラフアテンションネットワークに基づく規則に従いつつ、前述したニューラルネットワークの目的に沿うように、伝播行列Wおよび係数αi,jを決定する。
メタグラフコンボリューション部40は、例えば、想定ノードANのうち実ノードRNの初期値としての特徴量をニューラルネットワークに入力し、各層の想定ノードANの状態(特徴量)を導出する。これを繰り返し実行することで、出力部60が想定ノードANの特徴量を外部に出力する。
以上説明した第1の実施形態によれば、より幅広いニーズに対応することができる。
(第2の実施形態)
以下、第2の実施形態について説明する。第2の実施形態において、情報処理装置は、想定ノードANの元となる実ノードRNと実エッジの少なくとも一方に対して種別を設定し(換言すると、想定ノードANに対して種別を設定し)、種別ごとに、係数を設定する際の規則を変更する。より具体的に、情報処理装置は、想定ノードANの種別ごとに、その想定ノードANから伝播する特徴量を規定する係数αi,jを決定するための伝播行列Wを異ならせる。
図5は、想定ノードANの種別の定義の一例を示す図である。この例において、第2の実施形態の情報処理装置は、実ノードRNであった想定ノードに対してA、Bの二種類の種別を、実エッジREであった想定ノードに対してL、Tの二種類の種別を設定する。図5の上図は、グラフ構造のデータ20の内容の一例を示し、図5の下図は、実ノードRNと実エッジREを想定ノードANに変換した様子を模式的に示している。
種別が「A」である実ノードRN(A)は、種別が「L」である実エッジRE(L)のみが接続されたものである。
種別が「B」である実ノードRN(B)は、種別が「L」である実エッジRE(L)と種別が「T」である実エッジRE(T)との双方が接続されたものである。
種別が「L」である実エッジRE(L)と、種別が「T」である実エッジRE(T)は、自身に接続された実ノードRNの特徴量の伝播特性が互いに異なるものである。
A、B、L、Tに続く数字は、実ノードRN、実エッジRE、想定ノードANとしての識別子である。以下、A1、B1、L1、T2などの符号は、想定ノードANの識別子であると共に、それらの特徴量を示すものとする。
図6は、第2の実施形態の手法により、グラフ構造のデータ20から生成されたニューラルネットワークを示す図である。ニューラルネットワークの生成規則に関しては第1の実施形態と同様であるが、第2の実施形態の情報処理装置は、想定ノードANの種別ごとに、その想定ノードANから伝播する特徴量を規定する係数αi,jを決定するための伝播行列Wを異ならせる。具体的に、情報処理装置は、実ノードRN(A)であった想定ノードANから伝播する特徴量には伝播行列Wを適用し、実ノードRN(B)であった想定ノードANから伝播する特徴量には伝播行列Wを適用し、実エッジRE(L)であった想定ノードANから伝播する特徴量には伝播行列Wを適用し、実ノードRE(T)であった想定ノードANから伝播する特徴量には伝播行列Wを適用する。なお、伝播行列WA、、WL、のそれぞれを、層ごとに異ならせてもよい。
これによって、実ノードRNや実エッジREの特性の違いに対して、より正確に追従することができ、正確に想定ノードANの状態(特徴量)を予測することができる。
また、第1または第2実施形態の情報処理装置によれば、対象データの変更に対して柔軟に対応することができる。図7は、対象データの変更によってニューラルネットワークが変更される様子を示す図である。図7の上図の例を図5の例と比較すると、実ノードRN(B1)と実ノードRN(B2)とを接続する実エッジRE(T2)が追加されている。この場合、図7の下図に示すように、ニューラルネットワークにおいては想定ノードAN(T2)を追加し、想定ノードAN(T2)と、想定ノードAN(B1)、AN(B2)、および想定ノードAN(T2)自身を接続する想定エッジAEを追加すれば済む。従って、対象データの変更に対して柔軟に対応することができる。
図8は、第2の実施形態に係る情報処理装置2のブロック図である。情報処理装置2は、第1の実施形態と比較すると、例えば、種別設定部34を更に備える。種別設定部34は、例えば、CPUなどのハードウェアプロセッサがプログラム(ソフトウェア)を実行することにより実現される。これらの構成要素のうち一部または全部は、LSIやASIC、FPGA、GPUなどのハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予めHDDやフラッシュメモリなどの記憶装置に格納されていてもよいし、DVDやCD−ROMなどの着脱可能な記憶媒体に格納されており、記憶媒体がドライブ装置に装着されることでインストールされてもよい。
種別設定部34は、実ノード・実エッジ隣接関係抽出部32により抽出された結果を参照し、実ノードRNおよび実エッジREのそれぞれに前述したような種別を付与する。
想定ノードメタグラフ化部36は、前述したグラフアテンションネットワークに基づく規則で、且つ特徴量の伝播元の種別に応じた伝播行列Wを適用して、係数αi,jを決定する。
その他の構成要素の機能については、第1の実施形態と同様である。
以上説明した第2の実施形態によれば、より幅広いニーズに対応することができる。
また、上記の構成は、社会インフラの状態を解析するのに好適である。例えば、電力送電配電網や上下水道網などの解析対象は、グラフ構造として捉えることで正確な解析をすることができる。
図9は、第2の実施形態を電力送電配電網に適用する様子について説明するための図である。図示する構成は、バス1〜バス4を含む。バスとは、電力の供給源や需要家が接続される「箇所」のような概念である。バス1とバス2の間には、変圧器が設けられている。バス2には、60[MW]の需要家が接続されている。バス2とバス3の間は、70[km]の電力線で接続されている。バス3には、発電機と、70[MW]の需要家が接続されている。バス2とバス4の間は、40[km]の電力線で接続されており、バス3とバス4の間は、50[km]の電力線で接続されている。バス4には、発電機と、10[MW]の需要家が接続されている。このような構成において、バスを実ノード、変圧器を種別「T」の実エッジ、電力線を種別「L」の実エッジと考えると、図7に示すグラフ構造のデータおよびニューラルネットワークで状態を解析することができる。この場合、実ノードRNに基づく想定ノードANに対して入力される入力属性としては、種別、接続された負荷、シャント抵抗などがある。また、種別「T」の実エッジREに基づく想定ノードANに対して入力される入力属性としては回路定数があり、種別「L」の実エッジREに基づく想定ノードANに対して入力される入力属性としては距離やユニット自由度などがある。入力属性とは、特徴量のうち静的な情報である。
グラフ構造に擬される社会インフラに対して、ニューラルネットワークによる解析処理を行う場合、以下の要件を満たすことが望ましい。
1.大規模性
社会インフラへの適用には、基本的に規模の大きさと拡張性が必要になる。たとえば、電力送電配電網を考えると、バス(設備機器や需要負荷などの接続点)数として1万以上の大規模回路網となることもある。
2.多様性
従来のニューラルネットワークを応用した入力情報は、多くが、均一の属性信号であった。たとえば、画像処理の場合、入力は、画素信号という一種類の情報であったり、その特徴信号であった。しかしながら、社会インフラの場合、その入力信号数(次元)は数千以上となる場合があり、ネットワーク層も数十層というような大きな規模になる場合がある。上述の電力送電配電網を考えると、発電機、変圧器、負荷、トランス、電線など多種の設備がつながった大規模システムである。
3.変動性
通常、社会インフラ自体は運用期間が長く、その間に機器の保守、改良、置換が繰り返され、その都度、運用管理の見直しや投資検討が行われている。このように社会インフラの部分的改善、変更に対して、モデルの再学習を行うことなく追従する機能が求められている。
これに対し実施形態の情報処理装置は、伝播行列Wを複数の想定ノードAN間で共通して用いることで、伝播に関するパラメータを網羅的に探索する必要がなくなるため、解析対象が大規模であっても処理負荷の増大を抑制することができる。また、想定ノードANに対して種別を設定し、伝播行列Wを種別に応じて異ならせることで、多様性の要求にも対応することができる。また、ニューラルネットワークにおけるノード間の結合を、全結合にするのではなく、元のグラフ構造のデータにおける隣接関係(接続関係)にあるものに限定しているため、変動性の要求にも対応することができる。
(第1または第2の実施形態の変形例)
上記各実施形態では、実ノードRNと実エッジREを想定ノードとした後は、これらをニューラルネットワーク上では区別せずに処理を行うものとしたが、実ノードRNに基づく想定ノードANに対する処理と、実エッジREに基づく想定ノードANに対する処理とを、タイミングをずらしながら交互に行うようにしてもよい。図10は、変形例に係るニューラルネットワークの一例を示す図である。このように構成することで、ある実ノードRNの状態を、より速やかに隣接する(一つの実エッジを介して接続された)他の実ノードに伝播させることができる。また、この場合、実エッジからの伝播については、グラフアテンションネットワークの規則とは異なる規則で情報を伝播させてもよい。
(第3の実施形態)
以下、第3の実施形態について説明する。以降の実施形態において学習する対象のアクション決定ネットワークは、制御対象ないし解析対象の構造を表すグラフ構造のネットワークであれば十分であり、第1または第2の実施形態で説明したグラフアテンションネットワークは、あくまで好適な一例である。但し、以下では一例としてグラフアテンションネットワークを採用するものとして説明する。
図11は、第3の実施形態の情報処理装置3のブロック図である。情報処理装置3は、データ取得部10と、ネットワーク処理部30と、出力部60と、強化学習部70とを備える。ネットワーク処理部30は、実ノード・実エッジ隣接関係抽出部32と、想定ノードメタグラフ化部36Aとを備える。データ取得部10および実ノード・実エッジ隣接関係抽出部32の機能は、第1または第2実施形態と同様であるため、再度の説明を省略する。なお、第3の実施形態以降では、グラフ構造のデータには被操作ノードや評価対象ノード(いずれも後述)の情報が付与されており、実ノードRNと実エッジRE、それらの状態を層状に繋いだニューラルネットワークには、被操作ノードや評価対象ノードを特定する情報が付与される。
想定ノードメタグラフ化部36Aは、実ノード・実エッジ隣接関係抽出部32により抽出された実ノードRNと実エッジREが接続されるように、想定ノードANの状態を層状に繋いだニューラルネットワークを生成する。なお、第3の実施形態において、グラフアテンションネットワークにおける伝播行列Wおよび係数αi,jを決定する処理は、強化学習部70が行う。
図12は、第3の実施形態に係る強化学習部70が扱うネットワークの一例を示す図である。図示するように、想定ノードメタグラフ化部36Aが生成するネットワークには、複数のノードを含む出力層と、アクションポイントとが定義されている。
強化学習部70は、報酬R1〜R4の期待値を最大化するようなアクションポイントの出力p(a|s)が出力されるように、ネットワークのパラメータ(伝播行列W、係数αi,jなど)を学習する。強化学習部70は、ネットワークのパラメータ(伝播行列W、係数αi,jなど)を、報酬R1〜R4と出力V1(s)〜V4(s)との二乗誤差を最小化するように学習する。引数aはアクションを示し、sは状態を示している。アクションポイントの出力p(a|s)は、例えば、状態sを前提とし、アクションポイントに対応する被操作ノード(例えばタップ付き変圧器)における複数の選択肢(例えばタップ比)のそれぞれの選択確率(確率尤度)を示す条件付確率分布である。どのノードが被操作ノードであるかという情報は、予めグラフ構造のデータ20に付与されている。報酬R1〜R4のそれぞれは、例えば、複数の選択肢のうち選択確率が最大のものを選択したという情報をシミュレータ100に与えた結果、シミュレータ100からフィードバックされる観測値を、関数(報酬関数)に入力してえられる値である。
出力層における複数のノードに対応する入力層の想定ノード(以下、評価対象ノード)は、その状態を所望の状態に近づけたい想定ノード、すなわち制御の上で重要度が高い想定ノードである。評価対象ノードを複数定義しておくことで、制御対象の複数個所における状態を所望の状態に近づけることができ、より正確かつ低負荷で制御対象を制御することができる。また、出力層の特徴量V1(s)〜V4(s)のそれぞれと報酬R1〜R4とを近づけることの重要度を異ならせることで、最も重要な箇所の状態を優先的に所望の状態に近づけるといった制御も可能となる。例えば、報酬関数は、例えば簡易的にΣ[αk×{Vq(s)−Rq}]などの二重誤差の加重和で表されるが(q=1,…,4)、αkの配分を所望の配分とすることで、上記の優先的な制御を行うことができる。
強化学習部70による学習処理は、例えば、A3Cアルゴリズムに基づいて行われる。すなわち、強化学習部70は、アクションの評価関数と、Criticと呼ばれる、システム状態によって決定される価値(V)関数との双方を比較およびフィードバックしながらアクション選択と価値関数の双方を最適化する。
強化学習部70によりパラメータが決定されたネットワークは、アクション決定ネットワーク80として、出力部60を介して他装置などに出力される。これを受領した他装置では、アクション決定ネットワーク80の入力層に制御対象の状態を入力することで、最適なアクションを取得する。そして、取得したアクションに基づいて被操作ノードに対応する機器を制御する。
以上説明した第3の実施形態によれば、より正確かつ低負荷で制御対象を制御するためのネットワークを学習ことができる。従来の強化学習では、専ら全結合のニューラルネットワークを設定し、A3CやディープQラーニングなどによる処理を行っていた。その場合、本来であれば関連性の低いノード同士に不要な相関関係が生じてしまったり、結合数が多いことにより処理負荷が増大してしまう場合があった。更に、ディープQラーニングにおいてQ値は全体で一つであるため、局所的な状態を理想的な状態に近づけるために、どのノードをどう操作するべきか特定するのが困難であった。この点、第3の実施形態の情報処理装置3では、ノード同士の接続関係を記述したグラフ構造のデータ20を表す強化学習ネットワークを用いて強化学習を行い、複数の評価対象ノードについて報酬に近づけるように学習を行うため、より正確かつ低負荷で制御対象を制御するためのネットワークを学習ことができる。
なお、上記の説明は、専ら、取るべきアクションが出力層に出てくる方策ベースの強化学習に適用した例であるが、価値ベースの強化学習にも適用することができる。この場合、強化学習部70は、網羅的にアクションを仮定して結果を求め、報酬が最も大きくなるアクションを採用する。
(第3の実施形態の適用例とシミュレーション結果)
図13は、第3の実施形態の適用例(その1)を示す図である。本図に示す電力潮流計算モデルは、IEEEの標準電力系統システムモデルであり、ここでは、14本のバスを含む。これをバスB1〜B14とする。バスには、各々、負荷が接続されている。また、バスの中には、発電機が接続されたものがあり(本例では、バスB1、B2、B3、B6)、バスB4とバスB7の間は変圧器t47で接続され、バスB4とバスB9の間は変圧器t49で接続され、バスB5とバスB6の間は変圧器t56で接続されている。その他のバス同士はライン(送電線)で接続されている。バスB9には、電力の接地潮流分を制御するためのシャント回路b9が接続されている。変圧器のタップ切替スイッチ、シャント回路の定数の切替スイッチが、アクション空間として制御可能なシステムを想定する。この場合、アクションは、4変数(4次元)となる。
図14は、第3の実施形態の適用例(その2)を示す図である。本図に示す電力潮流計算モデルは、IEEEの標準電力系統システムモデルからバスB11を除外したものである。
本発明の発明者は、図14に示す電力系統システムを、バス、変圧器、ライン、シャント素子の4種類のノードで構成されるメタグラフに変換して、第3の実施形態の手法によってネットワークを学習し、電力系統システムを制御するシミュレーション(以下、第1シミュレーション)を行った。第1シミュレーションにおいて、バスB4、B5、B6、B7、B9に接続された負荷が変動したときに、これらのバスの電圧の変動を小さくすることを報酬とし、タップ付変圧器の出力電圧スイッチとシャント回路で制御する、但し、負荷は指定された範囲内(例えば0.94〜1.06pu)にあり、タップ切替は制御期間を通して最小になることを条件とした。
また、本発明の発明者は、図14に示す電力系統システムにおいて学習されたバス、変圧器、ライン、シャント素子のそれぞれのノードに対応する伝播行列W、係数αi,jなど(ノード関数)をそのまま用いて図13に示す電力系統システムを制御するシミュレーション(以下、第2シミュレーション)を行った。
図15は、第1シミュレーションと第2シミュレーションにおける電圧制御状態、すなわち価値関数を学習曲線として示す図である。図中、AXが第1シミュレーションにおける価値関数の推移を示し、BXが第2シミュレーションにおける価値関数の推移を示している。図示するように、両者はほぼ同じ価値関数値に収束している。つまり、バス13本で獲得したノード関数もバス14本で獲得されたノード関数もほぼ等価なものを使用することができることがわかる。従って、運用中のシステム情報を使って獲得した各設備モデルを、同種の追加設備の関数として使うことができるので、システムの構成を変更しても、新たに全体を学習しなおす必要がないことがわかる。
(第4の実施形態)
以下、第4の実施形態について説明する。第4の実施形態では、更に、報酬共有ネットワークを導入して強化学習を行う。以下、構成図を省略するが、第4の実施形態に係る想定ノードメタグラフ化部を想定ノードメタグラフ化部36B、強化学習部を強化学習部70Bと称して説明する。
図16は、第4の実施形態に係る強化学習部70Bが扱うネットワークの一例を示す図である。図示するように、このネットワークは複数の被操作ノードを含んでいる。このネットワークは、以下のように定義されたものである。被操作ノードTp(p=1,2)におけるアクションapの選択ポリシーは、現在の状態sに依存してきまる選択肢{ap}に対する確率尤度p(ap|s)に従って決まり、評価対象ノードBi(=1,…,4}の評価関数はVi(s)と表現され、変数sがアクションapによって変動する。また、ラインノードはLqと定義される。以下、図16に示すネットワークを強化学習ネットワークと称する。
第4の実施形態では、更に、想定ノードメタグラフ化部36Bが報酬共有ネットワークを定義し、強化学習部70Bは、強化学習ネットワークと報酬共有ネットワークを連結して全体に対して強化学習アルゴリズムで学習することで、全体システムのアクション方策と各ノード関数、報酬分配関数を同時に求める。
図17は、報酬共有ネットワークの一例を示す図である。報酬共有ネットワークは、強化学習ネットワークの少なくとも一部と同じ接続態様を有するネットワークである。報酬共有ネットワークにおける伝播行列を、W*、W*、W*と定義する。以下、「*」は報酬共有ネットワークに属することを示すものとする。前述した各実施形態と同様に、伝播行列W*、W*、W*のそれぞれを、層ごとに異ならせてもよい。
報酬共有ネットワークにおけるノード属性の構成は以下のようになる。まず、ノード全体のうちどのノードであるかを示すベクトルnd=(0,0,…,1,…,0,0)を定義する。ベクトルndは、要素のうち一つのみが1であり、他が0のベクトルである。報酬関数Riとベクトルndをノード属性に結合(コンカチネット)することで、式(4)〜(6)に示すように、報酬値を含んだノード属性を定義することができる。
B*i=(Ri||ni||Bi) i=1,…4 …(4)
T*p=(0||np||Tp) p=1,2 …(5)
L*q=(0||nq||Lq) q=1,2 …(6)
これらのノード属性は、報酬値を含んでモデル化されているため、強化学習部70Bは、伝播行列W*やアテンション関数a*も、コンカチネットされた入力属性に対して求める。強化学習部70Bは、出力となるRT1、RT2、対応する価値推定値VT1(s)、VT2(s)、評価対象ノードBiの出力、および、R1、R2、R3、R4と対応する推定値V1、V2、V3、V4に基づいて、A3CあるいはActor−Criticアルゴリズムなどで伝播行列W、W*、アテンション関数a、a*を導出する。これらは、ノード種類γ={B,T,L}ごとに求められる。
パラメータセット(W*,a*)が導出されると、種類kのノードiの隣接ノードjからノードiへのアテンション係数e ijは式(7)で表される。式中、a(,)はアテンション関数であり、その出力は実数値であるが、2つのベクトル入力に対する線形関数(内積)の場合もある。
ij=a(W*k・h*j,W*k・h*i) …(7)
式(7)を、式(8)に示すように規格化することで、a ijが得られる。a ijをノードiの隣接ノードjの集合に関して合計を求めると、1となる。アテンション係数としてe ijにLeakyReLUなどの非線形関数を乗算してもよい。
ij=softmax_j(e ij) …(8)
次の層のノードの属性をh*’dと定義すると、式(9)が成立する。
h*’i=σ{Σj∈Ni(a ij・W・h’i)} …(9)
h*dは、報酬共有ネットワークのノード属性を記述するものであり、報酬、ノード識別情報、ノード属性がコンカチネットされている。つまり、h*dは式(10)で表される。
h*d=(R||n||hd) d=1,2,…,8 …(10)
ここで、評価対象ノードBiの推定評価値V(s)と実際の報酬値Riとの差分関数(アドバンテージ関数)を式(11)のように定義する。
Ai(t)=Ri(t)−V(s) i=1,…,4 …(11)
このアドバンテージ関数から、式(12)、(13)で表されるロス関数を定義する。
Lpi=log{p(a|s)・Ai(t)} …(12)
Lvi=Ai(t) …(13)
強化学習部70Bは、ロス関数の勾配に沿ってWおよびaを更新する。この場合、評価対象ノードの全てについて加重和を求めるなどして、全体システムに対する属性としてアドバンテージを定義して上式のように計算することも可能である。この各更新過程において算出される、報酬Ri(t)、各ノードの属性hd(t)ノードの識別ベクトルndをコンカチネットして式(10)に示すように報酬共有ネットワークの入力ノードh*dを構成し、報酬共有ネットワークの入力とする。報酬共有ネットワークでは、出力を被操作ノードに対応するノード(制御ノード)に対して仮想的に定義する報酬値RTpとする。この関数を下に、制御ノードの推定評価値VTp(s)を学習過程で求めてゆく。制御ノードについてのアドバンテージ関数およびロス関数は、式(14)〜(16)のように定義される。
ATp(t)=RTp(t)−VTp(s) p=1,2 …(14)
Lpp=log{p(a|s)・ATp(t)} …(15)
Lvp=Ap(t) …(16)
強化学習部70Bは、ロス関数の勾配に沿ってW*およびa*を更新することで、ノード関数と報酬分配関数を同時に導出する。なお、ここで、各推定値V(s)は、強化学習過程において、数ステップ前の学習係数を使って、現在の価値関数を推定したものであるが、先読みステップ数を適宜選んでよい。
以下、強化学習過程において獲得された報酬分配関数を元に、報酬分配式を求める処理について説明する。図16において、強化学習ネットワークの出力層において、被操作ノードT1、T2に相当する出力ノード毎に、係数パラメータセットWT1、WT2を介して推定報酬関数VT1(s)、VT2(s)が出力されている。一方、図17において、報酬共有ネットワークの出力層において、コンカチネットして再定義された被操作ノードT1、T2に相当する出力ノード(制御ノード)毎に、係数パラメータセットW*T1、WT2を介して(実)報酬関数RT1(t)、RT2(t)が出力される。報酬ノードの集合をI、被操作ノードの集合をKとする。また、システム全体のノードの特性表現として、式(17)のようにh→を定義する。
h*→=(h*1,h*2,…,h*8) …(17)
そして、報酬分配関数をf(h*→)とし、r*=f(h*→)なる出力ベクトルが得られたとする。このr*のうち、被操作ノードk(∈K)についての成分を取り出して、それを{r*k}とし、分配係数αkを式(18)に基づいて求めることができる。
αk=softmax(W*Tk,r*k)=exp(W*Tk)/Σj∈Kexp(WTj・rj) …(18)
強化学習部70Bは、係数αkを用いて、報酬ノードi(∈I)で得られた報酬Riを、被操作制御ノード集合Kの要素kの報酬の一部として分配する。実際の分配計算は、式(19)で表される。
Rki=αk・Ri …(19)
強化学習部70Bは、最終的に被操作ノードkに与えられる報酬Rkを、式(20)に示すように、全ての報酬ノードに関するRkiを合計することで算出する。
Rk=Σj∈IRiK
強化学習部70Bは、このRkと、強化学習ネットワーク側の評価関数Vk(s)(k∈k)とに基づいて、Ak=Rk−Vk(s)によりアドバンテージを定義し、A3Cなどと同様のアルゴリズムを適用することで、分配関数やネットワークの係数を求める。
以上説明した第4の実施形態によれば、第3の実施形態と同様の効果を奏することができ、更に、特徴量を報酬に近づける際に、どの被操作ノードが寄与したのかを解析することができる。
(第5の実施形態)
以下、第5の実施形態について説明する。第5の実施形態は、第3または第4の実施形態における強化学習ネットワークの中間層と出力層との間に、LSTM(Long Short Term Memory)などの時系列処理層を追加したものである。図18は、図16に示す強化学習ネットワークにLSTMを適用した様子を示す図である。それぞれのLSTMは、ノード種類ごとに同じものが使用されてよい。時系列処理層を追加することで、各ノードの状態遷移を考慮した学習が可能となる。
(第6の実施形態)
以下、第6の実施形態について説明する。第6の実施形態は、第3〜第5の実施形態のいずれかの構成に加えて、報酬分配部を更に備えるものである。以下では、第3の実施形態に報酬分配部が付加された例について説明する。
(第6の実施形態の背景)
近年、人工知能を産業領域に活用する試みが進められている。人工知能技術としては、おもに、Deep Learningやその関連技術が多く、画像認識、故障解析、特性予測など適用範囲が広がっている。また、こうした対象の時系列的な最適運用を考えるために、強化学習の応用が広がっている。交通や電力系統、コンピュータネットワークといったインフラに関わる分野では、対象がグラフ構造を持っている場合も多い。グラフ構造を持つ対象に強化学習を適用する場合、アクションや報酬がノードに紐付いて与えられることがある。たとえば、交通網での渋滞を最小化する工事スケジュールの問題を考える。この場合、アクションは工事対象の道路というノードにひも付き、報酬である渋滞度も、道路というノードごとに算出される。この場合、アクションと報酬にはある近傍関係が成り立つことが想定される。先程の例では、ある道路が工事を行った場合、その近傍の道路の渋滞度には大きく影響するが、遠方の道路への影響は軽微であると考えられる。以後、報酬を算出するノードを報酬ノード、アクションを行うノードを被操作ノードと呼ぶ。これらは対象のグラフの構造に含まれるノードの部分集合として定義され、排他的ではない。
従来、こうした報酬の近傍関係については適切に考慮する技術が存在しなかった。そのため、各ノードで得られた報酬は近傍関係を無視して各アクションに等配分することが考えられるが、その場合、以下二点の課題が考えられる。
(1) 要因解釈性
被操作ノードと報酬ノードには近傍関係が考えられる。これを無視することは、各報酬がどのノードのアクションによって生じたものなのかを考えないということであり、要因分析を困難にする。
(2) スケーラビリティ
関連性の弱いノードから得られた報酬は、被操作ノードにとっては報酬にノイズが含まれていることと等価であり、モデルの収束性を下げる。制御対象が大規模化し、被操作ノード、報酬ノードの数が増えると、互いの関連性が不明瞭になり、各被操作ノードにそれと相関の低い報酬ノードからの報酬が流れ込み、モデルの学習速度が低下することが想定される。
図19は、第6の実施形態の情報処理装置6のブロック図である。情報処理装置6は、図11に示す情報処理装置3に加えて、報酬分配部90を更に備える。なお、報酬分配部90は、情報処理装置6から独立した装置(報酬分配装置)として構成されてもよい。
報酬分配部90は、報酬分配行列Dを決定する。報酬分配行列Dは、「分配先ノード数×分配元ノード数」の要素を持つ行列である。分配先ノード数は、時刻tの被操作ノード数と等しく、分配元ノード数は、時刻t+1の報酬ノード数と時刻t+1の被操作ノード数の和に等しい。報酬分配行列Dの一次元目のインデックスは時刻tの被操作ノードに対応し、報酬分配行列Dの二次元目のインデックスは時刻t+1の報酬ノードまたは被操作ノードに対応する。報酬分配行列Dの要素dijは、時刻t+1のj番目の報酬ノードまたは被操作ノードから、時刻tのi番目の被操作ノードへの報酬分配割合を示す。報酬分配行列Dの要素dijは、グラフの特徴やグラフ構造の近傍関係を入力し、かつグラフ構造によらないパラメータ数を持つ関数によって計算される。例えば、グラフ上の到達距離や、ランダムウォークの到達確率を正規化したもの、報酬伝播用GCN等である。これらについて称性の考慮は不要であり、一般的な距離の定義に従う必要はないが、従ってもよい。
報酬分配行列Dの要素dijを一次元目のインデックス方向に加算すると、式(20)に示すように1になるように正規化される。これは後述する報酬分配時に報酬総量を変えないようにするためである。正規化方法にはsoftmax関数を適用したり、要素の和で除算する等の手法が考えられる。以下、報酬分配行列Dの要素dijを計算する関数のパラメータと正規化パラメータをまとめてφと表現し、φによって決定される報酬分配行列をDφと表現する。また、数の報酬種類を持つ場合、報酬分配行列Dは報酬種類ごとに定義されてもよい。
Σij=1 ∀j∈node index …(20)
報酬分配部90は、報酬分配行列Dφと、結合報酬ベクトルR’t+1とに基づいて、被操作ノードに分配する報酬を決定する。より具体的に、報酬分配部90は、式(21)、(22)に基づいて、時刻tの被操作ノードに分配する報酬を決定する。式中、concatはコンカチネット(結合)を表し、rt+1は、時刻t+1の報酬ノードについて計算された報酬集合をノードのインデックスに従って並べてベクトル表現したものであり、Rt+1は、将来から伝播してきた報酬をベクトル表現したものであり、γは将来報酬の割引率である。報酬分配部90は、報酬分配行列Dφと、結合報酬ベクトルR’t+1とを乗算することで、現在の報酬ベクトルRを導出する。報酬ベクトルRは、時刻tの被操作ノード数の長さを持つベクトルであり、報酬分配部90は、報酬ベクトルRに基づいて報酬を時刻tの被操作ノードに分配する。
R’t+1=concat(rt+1,γ・Rt+1) …(21)
=Dφ・R’t+1 …(22)
報酬分配行列Dφのパラメータφは、ハイパーパラメータとして人手で与えることもできるし、学習によって自動獲得することもできる。学習する際の目的関数には、Dφによって算出される報酬のベクトル表現Rと、各被操作ノードの状態s_tn及びアクションa_tnの関連度が最大化されるようなものを選択すると好適である。例えば、各ノードについてアクションを行う前の報酬分布と行った後の報酬分布を比較して算出した、アクションによる情報ゲインや、報酬を観測したことによるアクション確率の情報ゲインなどが利用できる。自動学習については後述する。
[適用例]
以下、第6の実施形態の適用例について説明する。図20は、将来報酬ベクトルRt+1を導出する様子の一例を示す図である。図20は、時刻tに各被操作ノードNa1〜Na3が行動ベクトルA_t(図では(0,1,1))で表される行動をとり、時刻t+1に遷移した状態と、そこで得られた報酬を示している。グラフ上に報酬ノードNr1〜Nr4と、被操作ノードNa1〜Na3が定義されている。報酬ノードには報酬ベクトルrt+1が与えられ、被操作ノードには、その被操作ノードが将来得る報酬ベクトルRt+1が与えられている。報酬分配部90は、これらの報酬を各被操作ノードに分配する。
報酬分配部90は、まず、報酬分配行列Dφを作成する。図21は、報酬分配行列Dφを作成する様子の一例を示す図である。報酬分配部90は、時刻tの被操作ノードNa1〜Na3と時刻t+1の報酬ノードNr1〜Nr4及び被操作ノードNa1〜Na3との関連度スコアを任意の関数で算出し、これを被操作ノード方向の合計が1になるよう正規化することで、報酬分配行列Dφを作成する。
そして、報酬分配部90は、報酬ベクトルRt+1を導出する。図22は、報酬ベクトルRを導出する様子の一例を示す図である。報酬分配部90は、報酬ベクトルrt+1と将来報酬ベクトルに割引率γを乗算したγ・Rt+1とを結合した結合報酬ベクトルR’t+1を、報酬分配行列Dφに対して右から積を求める。なお、簡単のため、図では割引率γを1とした。これにより、各被操作ノードに与える報酬ベクトルRが計算される。強化学習部70は、各被操作ノードについて、この報酬ベクトルRを用いて任意の強化学習を行う。例えばAdvantage-Actor-Critic法であれば、式(22)にしたがって、各被操作ノードの方策πのパラメータθを更新する。なお、エピソード中でグラフ構造が変わったとしても、報酬分配行列を再計算することで評価可能である。図22の例では、例えば、報酬ベクトルのNr3の要素は被操作ノードNa3に影響されて生じたことが見て取れる。
Δμ(θ)=Σn(Rtn−V(st))logπθ(a|s) n∈Na …(22)
以下、報酬分配行列Dφのパラメータφの自動学習について説明する。理想的な報酬分配行列のパラメータは、時刻tにおける被操作ノードnに分配される報酬R_tnの分布が、そのノードのアクションによって大きく影響をうけるもの、すなわち、アクションによる報酬分布の情報利得の総和Igが最大化されたものと考えられる。総和Igは式(23)によって表される。式中、KLはKLダイバージェンス(KL情報量)である。
Ig=ΣtΣn[KL(P(Rtn|s,atn)||P(Rtn|s)) n∈anode …(23)
報酬の分布が分散σの正規分布に従うと仮定すると、式(23)の一部は式(24)で表現することができる。式中、Nは正規分布を表す関数である。
P(Rtn|s,atn)=N(μ(s),σ) …(24)
式(23)に式(24)を代入すると、正規分布間のKLダイバージェンスにより、式(23)を式(25)のように変形することができる。μ(s)は各被操作ノードの行動によらない報酬の期待値であるため、強化学習モデルの推定する状態価値V(s)に置き換えることができる。なお、(Dφ・R’t+1はベクトル(Dφ・R’t+1)のn番目のインデックスに相当する要素である。
Figure 2020135390
これを報酬分配行列Dφのパラメータφで偏微分すると、∂Dφ/∂φによって勾配が表現できる。Dφがパラメータφで微分可能な形で定義されていれば、式(26)を用いてパラメータの勾配を求め、確率的勾配降下法などでパラメータφを最適化することができる。報酬分配部90は、以上説明した原理に基づいてパラメータφを最適化する。
Figure 2020135390
(第6実施形態の変形例)
以下、第6の実施形態の変形例について説明する。第6実施形態は、同時刻に複数のエージェントが行動する、マルチエージェントの方式に適用されるものとしたが、この変形例では同時刻に行動する被操作ノードは一つであるものとする。
図23は、第6の実施形態の変形例が処理対象とするノードの状態変化の一例を示す図である。図23に示すように、時刻t+2で生じた報酬ベクトルrt+2と、そこで得られた将来報酬Rt+2を時刻t+1と時刻tに分配する問題を考える。ここでは、各時刻に分配される報酬はスカラであるものとする。将来報酬Rt+2は、同時刻の全ノードと等距離のノードNall t+2で生じたものとする。
変形例の報酬分配部(図示しないが、報酬分配部90Aと称する)は、時刻tからt+2までの対応するノードを、時間軸方向のエッジで結合し、結合グラフを作成する。報酬分配部90Aは、報酬ノード、被操作ノードそれぞれに対して、場所以外に時間のインデックスを設定し、報酬分配行列Dφの要素を、この結合グラフ上で算出する。
図24は、結合グラフから報酬分配行列Dφを算出する手順の一例を示す図である。図中、黒く表示されているのは各時刻において行動した被操作ノードであり、時刻t+2には、全ノードと等距離のノードNall t+2が存在する。報酬分配部90Aは、時刻t、t+1において行動した被操作ノードの行動に対する時刻t+2の報酬ノードおよびノードNall t+2の関連度スコアを任意の関数で算出し、これを被操作ノード方向の合計が1になるよう正規化することで、報酬分配行列Dφを作成する。
図25は、報酬ベクトル(R,Rt+1を導出する様子の一例を示す図である。報酬分配部90Aは、時刻t+2における結合報酬ベクトルR’t+2を、報酬分配行列Dφに対して右から積を求める。なお、簡単のため、図では割引率γを1とした。これにより、時刻t、t+1の各被操作ノードに与える報酬ベクトル(R,Rt+1が計算される。なお、この変形例では、一時刻につき被操作ノードが一つのみ行動するものとしているが、第6の実施形態の手法と組み合わせることで、複数であっても適用可能である。
以上説明した第6の実施形態並びにその変形例によれば、報酬分配部90(または90A)を更に備えることで、要因解釈性とスケーラビリティの問題を改善することができる。
以上説明した少なくともひとつの実施形態によれば、ノード同士の接続関係を記述したグラフ構造のデータを取得するデータ取得部(10)と、前記データ取得部により取得されたグラフ構造のデータを表す第1のネットワークを設定する設定部(30)と、前記第1のネットワークにおいて、評価対象ノードの出力層の特徴量が報酬に近づくように、且つ、被操作ノードの出力層の特徴量が、前記評価対象ノードの出力層の特徴量を報酬に近づける特徴量となるように、前記第1のネットワークのパラメータを導出する強化学習部(70)とを持つことにより、より正確かつ低負荷で制御対象を制御するためのネットワークを学習ことができる。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1、2、3、6 情報処理装置
10 データ取得部
20 グラフ構造のデータ
30 ネットワーク処理部
32 実ノード・実エッジ隣接関係抽出部
34 種別設定部
36、36A 想定ノードメタグラフ化部
40 メタグラフコンボリューション部
50 想定ノード特徴量
60 出力部
70 強化学習部
80 アクション決定ネットワーク
90 報酬分配部
100 シミュレータ

Claims (11)

  1. ノード同士の接続関係を記述したグラフ構造のデータを取得するデータ取得部と、
    前記データ取得部により取得されたグラフ構造のデータを表す第1のネットワークを設定する設定部と、
    前記第1のネットワークにおいて、
    評価対象ノードの出力層の特徴量が報酬に近づくように、且つ、
    被操作ノードの出力層の特徴量が、前記評価対象ノードの出力層の特徴量を報酬に近づける特徴量となるように、
    前記第1のネットワークのパラメータを導出する強化学習部と、
    を備える情報処理装置。
  2. 前記設定部は、評価対象ノードを複数備えるように前記第1のネットワークを設定し、
    前記強化学習部は、前記複数の評価対象ノードのそれぞれの出力層における特徴量が、対応する複数の報酬のそれぞれに近づくように、前記第1のネットワークのパラメータを導出する、
    請求項1記載の情報処理装置。
  3. 前記強化学習部は、前記複数の評価対象ノードのそれぞれの出力層における特徴量について重要度を設定し、重要度の高い特徴量を優先的に報酬に近づけるように、前記第1のネットワークのパラメータを導出する、
    請求項2記載の情報処理装置。
  4. 前記設定部は、前記被操作ノードを複数備えるように前記第1のネットワークを設定し、
    前記強化学習部は、前記複数の被操作ノードのそれぞれの出力層における特徴量が、前記複数の評価対象ノードのそれぞれの出力層における特徴量を報酬に近づける特徴量となるように、前記第1のネットワークのパラメータを導出する、
    請求項1から3のうちいずれか1項記載の情報処理装置。
  5. 前記設定部は、前記第1のネットワークの少なくとも一部と同形態である第2のネットワークを、前記第1のネットワークにおける前記出力層の評価対象ノードに連結させて設定し、
    前記強化学習部は、前記第1のネットワークのパラメータと、前記第2のネットワークのパラメータとを同時に導出する、
    請求項1から4のうちいずれか1項記載の情報処理装置。
  6. 前記強化学習部は、前記被操作ノードの前記第1のネットワークにおける出力層の特徴量を、前記被操作ノードの前記第2のネットワークにおける出力層のノードから得られる報酬に近づけるように、前記第1のネットワークおよび前記第2のネットワークのパラメータを導出する、
    請求項5記載の情報処理装置。
  7. 前記設定部は、前記第1のネットワークの出力層よりも入力層側に、時系列処理層を設ける、
    請求項1から6のうちいずれか1項記載の情報処理装置。
  8. 前記第1ネットワーク、前記被操作ノード、および前記報酬の関係を表す関係情報を前記グラフ構造のデータに基づいて導出し、前記導出した関係情報に基づいて前記報酬を前記被操作ノードに分配する報酬分配部を更に備える、
    請求項1から7のうちいずれか1項記載の情報処理装置。
  9. 前記報酬分配部は、前記関係情報のパラメータを、前記被操作ノードの行うアクションと、分配された報酬との関係性に基づいて自動的に導出する、
    請求項8記載の情報処理装置。
  10. コンピュータが、
    ノード同士の接続関係を記述したグラフ構造のデータを取得し、
    前記取得されたグラフ構造のデータを表す第1のネットワークを設定し、
    前記第1のネットワークにおいて、
    評価対象ノードの出力層の特徴量が報酬に近づくように、且つ、
    被操作ノードの出力層の特徴量が、前記評価対象ノードの出力層の特徴量を報酬に近づける特徴量となるように、
    前記第1のネットワークのパラメータを導出する、
    情報処理方法。
  11. コンピュータに、
    ノード同士の接続関係を記述したグラフ構造のデータを取得させ、
    前記取得させたグラフ構造のデータを表す第1のネットワークを設定させ、
    前記第1のネットワークにおいて、
    評価対象ノードの出力層の特徴量が報酬に近づくように、且つ、
    被操作ノードの出力層の特徴量が、前記評価対象ノードの出力層の特徴量を報酬に近づける特徴量となるように、
    前記第1のネットワークのパラメータを導出させる、
    プログラム。
JP2019027784A 2019-02-19 2019-02-19 情報処理装置、情報処理方法、およびプログラム Active JP7271216B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019027784A JP7271216B2 (ja) 2019-02-19 2019-02-19 情報処理装置、情報処理方法、およびプログラム
US16/789,515 US11593618B2 (en) 2019-02-19 2020-02-13 Data processing apparatus, data processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019027784A JP7271216B2 (ja) 2019-02-19 2019-02-19 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020135390A true JP2020135390A (ja) 2020-08-31
JP7271216B2 JP7271216B2 (ja) 2023-05-11

Family

ID=72042581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019027784A Active JP7271216B2 (ja) 2019-02-19 2019-02-19 情報処理装置、情報処理方法、およびプログラム

Country Status (2)

Country Link
US (1) US11593618B2 (ja)
JP (1) JP7271216B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022195807A1 (ja) * 2021-03-18 2022-09-22 東芝エネルギーシステムズ株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6843780B2 (ja) * 2018-01-18 2021-03-17 ヤフー株式会社 情報処理装置、学習済みモデル、情報処理方法、およびプログラム
CN112162196B (zh) * 2020-08-27 2022-06-17 浙江工业大学 一种基于图注意力网络的电机故障诊断方法
CN112287605B (zh) * 2020-11-04 2022-05-10 浙江大学 一种基于图卷积网络加速的潮流校核方法
CN113688191B (zh) * 2021-08-27 2023-08-18 阿里巴巴(中国)有限公司 特征数据生成方法、电子设备、存储介质
CN115187151B (zh) * 2022-09-13 2022-12-09 北京锘崴信息科技有限公司 基于联邦学习的排放可信分析方法及金融信息评价方法
CN115423052B (zh) * 2022-11-07 2023-03-24 南京大经中医药信息技术有限公司 基于多图注意力的中医证型分类方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016194248A1 (ja) * 2015-06-03 2016-12-08 三菱電機株式会社 推論装置及び推論方法
JP2017182710A (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005739A (ja) 2016-07-06 2018-01-11 株式会社デンソー ニューラルネットワークの強化学習方法及び強化学習装置
US11879656B2 (en) * 2018-04-04 2024-01-23 International Business Machines Corporation Initialization of radial base function neural network nodes for reinforcement learning incremental control system
US20210192358A1 (en) * 2018-05-18 2021-06-24 Deepmind Technologies Limited Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments
US10599686B1 (en) * 2018-09-27 2020-03-24 Babylon Partners Limited Method and system for extracting information from graphs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016194248A1 (ja) * 2015-06-03 2016-12-08 三菱電機株式会社 推論装置及び推論方法
JP2017182710A (ja) * 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置、情報処理方法および情報提供方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZHANG, ZIWEI, ET AL.: "Deep Learning on Graphs: A Survey", ARXIV.ORG [ONLINE], JPN6022036031, 11 December 2018 (2018-12-11), ISSN: 0004861487 *
中島 功太ほか: "深層強化学習を用いた無線LAN最適チャネル制御", 電子情報通信学会技術研究報告, vol. 118, no. 428, JPN6022036032, 21 January 2019 (2019-01-21), JP, pages 13 - 18, ISSN: 0004861486 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022195807A1 (ja) * 2021-03-18 2022-09-22 東芝エネルギーシステムズ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US11593618B2 (en) 2023-02-28
US20200265295A1 (en) 2020-08-20
JP7271216B2 (ja) 2023-05-11

Similar Documents

Publication Publication Date Title
JP7271216B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Aly An intelligent hybrid model of neuro Wavelet, time series and Recurrent Kalman Filter for wind speed forecasting
Barak et al. Forecasting energy consumption using ensemble ARIMA–ANFIS hybrid algorithm
Flores et al. Evolutive design of ARMA and ANN models for time series forecasting
JP6906478B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7242508B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Ghaderi et al. Behavioral simulation and optimization of generation companies in electricity markets by fuzzy cognitive map
CN102622510A (zh) 一种软件缺陷量化管理系统和方法
JP2006221310A (ja) 予測方法、予測装置、予測プログラムおよび記録媒体
Thapar et al. Satisficing solutions of multi-objective fuzzy optimization problems using genetic algorithm
Hasanluo et al. Software cost estimation by a new hybrid model of particle swarm optimization and k-nearest neighbor algorithms
Reddy et al. A concise neural network model for estimating software effort
Veeramsetty et al. Short term active power load forecasting using machine learning with feature selection
Zhou et al. Functional networks and applications: A survey
Ochoa-Rivera Prospecting droughts with stochastic artificial neural networks
Müller-Hannemann et al. Towards Improved Robustness of Public Transport by a Machine-Learned Oracle
Kayim et al. Time series forecasting with volatility activation function
Gibbs Forecast combination, non-linear dynamics, and the macroeconomy
Lin et al. Hpt-rl: Calibrating power system models based on hierarchical parameter tuning and reinforcement learning
Goeva et al. Reconstructing input models via simulation optimization
Heng et al. A hybrid forecasting model based on empirical mode decomposition and the cuckoo search algorithm: a case study for power load
Podinovski et al. Cone extensions of polyhedral production technologies
CN109902870A (zh) 基于AdaBoost回归树模型的电网投资预测方法
Amer et al. Application of fuzzy cognitive map for the development of scenarios: a case study of Wind Energy Deployment
Papageorgiou et al. Bagged nonlinear hebbian learning algorithm for fuzzy cognitive maps working on classification tasks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210922

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221028

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230426

R150 Certificate of patent or registration of utility model

Ref document number: 7271216

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150