JP7010403B1 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP7010403B1
JP7010403B1 JP2021086028A JP2021086028A JP7010403B1 JP 7010403 B1 JP7010403 B1 JP 7010403B1 JP 2021086028 A JP2021086028 A JP 2021086028A JP 2021086028 A JP2021086028 A JP 2021086028A JP 7010403 B1 JP7010403 B1 JP 7010403B1
Authority
JP
Japan
Prior art keywords
data
output
information processing
input data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021086028A
Other languages
English (en)
Other versions
JP2022178907A (ja
Inventor
崇志 白木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuji Electric Co Ltd
Original Assignee
Fuji Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Electric Co Ltd filed Critical Fuji Electric Co Ltd
Priority to JP2021086028A priority Critical patent/JP7010403B1/ja
Application granted granted Critical
Publication of JP7010403B1 publication Critical patent/JP7010403B1/ja
Publication of JP2022178907A publication Critical patent/JP2022178907A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Feedback Control In General (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】簡略化された代理モデルを用いた場合であっても、精度良く入力データに起因する出力データを得ることができる情報処理装置を提供する。【解決手段】所定の対象に対する入力データを取得する取得部と、前記所定の対象に対して前記入力データが入力された際に前記所定の対象において前記入力データが変化するよう、前記入力データに対して、所定の時間要素を含む処理を施して出力する第1処理部と、所定値の前記入力データに対応するデータを出力するとともに前記所定の対象を模擬した学習モデルを用いて、前記第1処理部からの出力に対応する出力データを出力する第2処理部と、を備える情報処理装置。【選択図】図7

Description

本発明は、情報処理装置及び情報処理方法に関する。
機器等の所定の対象を模擬したシミュレーションモデルを用いることにより、所定の対象へデータを入力した際の出力を得ることができる。しかし、シミュレーションモデルが複雑である場合、出力を得るために多大な時間を要する場合がある。
このような場合に、シミュレーションモデルを代理するモデル(以下、「代理モデル」と呼ぶ)を新たに生成し、シミュレーションモデルに代えて代理モデルを用いることにより、計算の高速化を図る技術が知られている(例えば特許文献1)。
特開2011-181069号公報
しかしながら、時系列で変化する入力データに基づいて代理モデルを生成する場合、代理モデルが複雑になることがある。
本発明の目的は、簡略化された代理モデルを用いた場合であっても、精度良く入力データに起因する出力データを得ることができる情報処理装置を提供することである。
上記目的を達成するための一の発明は、所定の対象に対する入力データを取得する取得部と、所定の対象に対して入力データが入力された際に所定の対象において入力データが変化するよう、入力データに対して、所定の時間要素を含む処理を施して出力する第1処理部と、所定値の入力データに対応するデータを出力するとともに所定の対象を模擬した学習モデルを用いて、第1処理部からの出力に対応する出力データを出力する第2処理部と、を備える情報処理装置である。本発明の他の特徴については、本明細書の記載により明らかにする。
本発明によれば、簡略化された代理モデルを用いた場合であっても、精度良く入力データに起因する出力データを得ることができる情報処理装置を提供することができる。
情報処理システム1の概略構成を示す図である。 情報処理装置3のハードウェア構成を説明する図である。 シミュレーションモデルSMを説明する概念図である。 学習データ5を説明する図である。 サンプルデータSDを説明する図である。 サンプルデータSDを説明する図である。 代理モデル8を説明する図である。 情報処理装置3の機能ブロックを説明する図である。 学習モデル6を出力するまでの処理の流れを説明するフローチャートである。 各種パラメータを出力するまでの処理の流れを説明するフローチャートである。 代理モデル8が用いる各種パラメータを同定する処理を説明する図である。 代理モデル8が用いる各種パラメータを同定した結果を説明する図である。 情報処理装置4のハードウェア構成を説明する図である。 情報処理装置4の機能ブロックを説明する図である。 出力データを出力するまでの処理の流れを説明するフローチャートである。
==実施形態==
<<情報処理システム>>
図1は、本実施形態の情報処理システム1の概略構成を示す図である。情報処理システム1は、例えば、所定の機器としてショーケース2のシミュレーションを実行するシステムであり情報処理装置3と、情報処理装置4と、を含む。
なお、本実施形態では、所定の機器としてショーケース2を例示して説明するが、これに限られない。所定の機器としては、例えば各種装置、電子・電気回路等の機器であってもよい。
<ショーケース>
ショーケース2は、例えば、食品等を冷却し、保管するためのケースである。ショーケース2には、ショーケース2の状態を観測するセンサ20が、複数取り付けられている。なお、図1では、便宜上、複数のセンサ20は、1つのブロックとして描かれている。
<情報処理装置3>
情報処理装置3は、ショーケース2のシミュレーションモデルの代わりとなる代理モデルを生成するための装置である。なお、詳細は後述するが、本実施形態の代理モデルは、時間的要素を含まない学習モデル(後述)と、時間的要素を含むモデルとからなる。
<情報処理装置4>
情報処理装置4は、情報処理装置3で生成された代理モデルを用いてショーケース2のシミュレーションを実行する装置である。なお、本実施形態では、情報処理装置3,4は、例えば、代理モデルを開発する会社のサーバ室に設けられ、ショーケース2は、所定の店舗に設置されている。
[情報処理装置3のハードウェア構成]
図2は、情報処理装置3のハードウェアの一例を示す図である。例示する情報処理装置3は、プロセッサ300、主記憶装置301、補助記憶装置302、入力装置303、出力装置304、及び通信装置305を備える。なお、例示する情報処理装置3は、その全部または一部が、例えば、クラウドシステムによって提供される仮想サーバのように、仮想化技術やプロセス空間分離技術等を用いて提供される仮想的な情報処理資源を用いて実現されるものであってもよい。また、情報処理装置3によって提供される機能の全部または一部は、例えば、クラウドシステムがAPI(Application Programming Interface)等を介して提供するサービスによって実現してもよい。
プロセッサ300は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)、AI(Artificial Intelligence)チップ等を用いて構成されている。
主記憶装置301は、プログラムやデータを記憶する装置であり、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、不揮発性メモリ(NVRAM(Non Volatile RAM))等である。
補助記憶装置302は、例えば、SSD(Solid State Drive)、ハードディスクドライブ、光学式記憶装置(CD(Compact Disc)、DVD(Digital Versatile Disc)等)、ストレージシステム、ICカード、SDカードや光学式記録媒体等の記録媒体の読取/書込装置、クラウドサーバの記憶領域等である。補助記憶装置302には、記録媒体の読取装置や通信装置305を介してプログラムやデータを読み込むことができる。補助記憶装置302に格納(記憶)されているプログラムやデータは主記憶装置301に随時読み込まれる。
補助記憶装置302には、学習データ5及びサンプルデータSDが記憶されている。詳細は後述するが、学習データ5は、情報処理装置3のモデル生成部311が実行する処理において用いられるデータである。サンプルデータSDは、情報処理装置3のパラメータ同定部313が実行する処理において用いられるデータである。
入力装置303は、外部からの入力を受け付けるインタフェースであり、例えば、キーボード、マウス、タッチパネル、カードリーダ、ペン入力方式のタブレット、音声入力装置等である。
出力装置304は、処理経過や処理結果等の各種情報を出力するインタフェースである。出力装置304は、例えば、上記の各種情報を可視化する表示装置(液晶モニタ、LCD(Liquid Crystal Display)、グラフィックカード等)、上記の各種情報を音声化する装置(音声出力装置(スピーカ等))、上記の各種情報を文字化する装置(印字装置等)である。
入力装置303及び出力装置304は、ユーザとの間で情報の受け付けや情報の提示を行うユーザインタフェースを構成する。
通信装置305は、他の装置との間の通信を実現する装置である。通信装置305は、インターネット等の通信ネットワークを介して他の装置との間の通信を実現する、有線方式または無線方式の通信インタフェースであり、例えば、NIC(Network Interface Card)、無線通信モジュール、USBモジュール等である。
情報処理装置3には、例えば、オペレーティングシステム、ファイルシステム、DBMS(DataBase Management System)(リレーショナルデータベース、NoSQL等)、KVS(Key-Value Store)等が導入されていてもよい。
情報処理システム1が備える各機能は、情報処理装置3のプロセッサ300が、主記憶装置301に格納されているプログラムを読み出して実行することにより、もしくは、情報処理システム1を構成するハードウェア(FPGA、ASIC、AIチップ等)によって実現される。情報処理システム1は、各種の情報(データ)を、例えば、データベースのテーブルやファイルシステムが管理するファイルとして記憶する。
[シミュレーションモデル]
補助記憶装置302に記憶されている学習データ5は、代理モデルのうち、学習モデルを生成するためのデータである。なお、本実施形態の学習データ5は、ショーケース2を、物理的、電気的に模擬したシミュレーションモデルSMを用いて生成されたデータである。以下、まずは、ショーケース2を模擬したシミュレーションモデルSMについて詳細に説明する。
図3は、シミュレーションモデルSMを説明する概念図である。シミュレーションモデルSMは、ショーケース2の特性や挙動に影響を与えるm個の入力データWsi(t)(i=1~m)を入力した場合に、ショーケース2の特性や挙動を示すn個の出力データZsj(t)(j=1~n)を出力する。なお、入力データWsi(t)(i=1~m)と、出力データZsj(t)(j=1~n)とは、所定の期間の時系列データであり、tは時間を意味する。
本実施形態では、入力データWsi(t)(i=1~m)は、ショーケース2の挙動を制御するための変数、又はショーケース2の挙動に影響を及ぼす変数についての時系列データである。以下では、m個の入力データWsi(t)(i=1~m)のうち、入力データWs1(t)を冷凍機周波数、入力データWs2(t)を膨張弁の開度、入力データWs3(t)を室外気温、入力データWs4(t)を室内気温として説明する。
出力データZsj(t)(j=1~n)は、ショーケース2の挙動を示す変数についてのデータである。以下では、n個の入力データZsj(t)(j=1~n)のうち、出力データZs1(t)をケース内温度、出力データZs2(t)を冷媒配管温度として説明する。
ここで、例えば、冷凍機周波数(Ws1(t))を上げると、ケース内温度(Zs1(t))は下がり、冷媒配管温度(Zs2(t))は上がる。一方、膨張弁の開度(Ws2(t))を上げると、ケース内温度(Zs1(t))は下がり、冷媒配管温度(Zs2(t))は下がる。このように、ショーケース2を制御等するための入力データWsi(t)(i=1~m)を変化させると、出力データZsj(t)(j=1~n)は変化する。
ところで、シミュレーションモデルSMは、ショーケース2を物理的、電気的に模擬しているため、シミュレーションモデルSMを用いることにより、精度良く、ショーケース2の挙動を把握できる。しかしながら、一般に、シミュレーションモデルSMを用いてシミュレーションを実行すると、計算時間が長くなる。そこで、本実施形態では、シミュレーションモデルSMから得られた入出力の結果を用いて、代理モデル(後述)を生成する。
[学習データ]
図4は、本実施形態の学習データ5を説明する図である。学習データ5は、上述の補助記憶装置302に記憶されている。学習データ5は、複数のデータ50を含んでいる。なお、例えば図4の一列目には、データ50aが配列され、二列目には、データ50bが配列されている。また、データ50のそれぞれには、m個の入力データW01~W0mと、n個の出力データZ01~Z0nとが対応付けられたデータである。
ここで、複数のデータ50の夫々は、本実施形態では、前述のシミュレーションモデルSMに基づいて生成されたデータである。入力データW0i(i=1~m)と、出力データZ0j(j=1~n)との夫々は、シミュレーションモデルSMの定常解に基づいている。
入力データW0i(i=1~m)の夫々は、予め用意された定数値の時系列データである。出力データZ0j(j=1~n)の夫々は、定数値の時系列データである入力データW0i(i=1~m)と、出力データについての任意の初期条件とをシミュレーションモデルSMに入力した場合の、出力データZsj(t)(j=1~n)の夫々の収束値である。
つまり、出力データZ0j(j=1~n)は夫々、シミュレーションモデルSMの出力データZsj(t)(j=1~n)において、十分な時間tが経過した後における値である。
複数のデータ50のうち、データ50aを例示して説明する。データ50aの入力データは、冷凍機周波数として80[Hz]、膨張弁の開度として0.6、室外気温として20℃、室内気温として27℃が予め与えられたデータであることを意味する。
データ50aの出力データは、データ50aの定常的な入力データをシミュレーションモデルSMに入力した場合に、十分な時刻tが経過したときにケース内温度が-2℃、冷媒管温度が38℃に収束したことを意味する。
このように、データ50は、定常時の入力データと、定常時の出力データと、の関係を示すデータである。したがって、詳細は後述するが、このようなデータ50を、学習データ5として用いることにより、ショーケース2の定常状態における入出力を模擬する学習モデルを生成することができる。
[サンプルデータ]
サンプルデータSDは、ショーケース2のうち、時間的に変化する要素を含むモデルを生成する際に用いられるデータであり、サンプルデータSDは、上述の補助記憶装置302に記憶されている。サンプルデータSDは、シミュレーションモデルSMへの入力と、解とが対応付けられたデータである。本実施形態では、サンプルデータSDの数は、入力データW0i(i=1~m)の数と同じであり、mである。m個のサンプルデータSDの夫々を識別する場合、サンプルデータSD(k=1~m)と呼ぶ。サンプルデータSDは、入力データWki(t)(i=1~m)と、出力データZkj(t)(j=1~n)とを含む。
なお、以下の説明において、m個のサンプルデータSD(k=1~m)を区別する必要がない場合は、「サンプルデータSD」と呼ぶ。また、このとき、入力データWki(t)(i=1~m)と、出力データZkj(t)(j=1~n)とを夫々、入力データW(t)(i=1~m)と、出力データZ(t)(j=1~n)と呼ぶ。
本実施形態では、サンプルデータSDは、m個の入力データWki(t)(i=1~m)のうち、Wkk(t)を所定の動的な時系列データとし、他の入力データWki(t)(i≠k)を所定の定数値の時系列データとした場合の、シミュレーションモデルSMの解である。
図5及び6は、本実施形態のm個のサンプルデータSD(k=1~m)のうち、例えば、サンプルデータSDを説明する図である。図5は、サンプルデータSDの入力データを説明する図であり、図6は、サンプルデータSDの出力データを説明する図である。
サンプルデータSDは、m個の入力データW1i(t)(i=1~m)のうち、入力データW11(t)、つまり、冷凍機周波数を所定の動的な時系列データとしている。この際、入力データW11(t)以外の入力データW1i(i≠1)は、所定の定数値の時系列データであり、図5において図示を省略している。
サンプルデータSDにおける出力データZ1j(t)(j=1~n)は、入力データW1i(t)(i=1~m)と、所定の初期条件(例えば、出力の初期値)とをシミュレーションモデルSMに入力した場合に出力される出力データである。図6では、出力データZ11(t)、つまり、冷凍機周波数の時系列データのみを示し、他の出力データについては図6において図示を省略している。
便宜上、ここでは図示を省略しているが、同様に、サンプルデータSDは、m個の入力データW2i(t)(i=1~m)のうち、入力データW22(t)、つまり、膨張弁の開度を所定の動的な時系列データとしている。他のサンプルデータSD(k=3~m)についても、上記と同様に生成されればよい。
なお、本実施形態では、サンプルデータSDは、m個の入力データW3i(t)(i=1~m)の全てを所定の低数値の時系列データとしている。サンプルデータSDにおける入力データW33(t)は、室外気温についての時系列データである。室外気温は、冷凍機周波数や膨張弁の開度といった他の変数に比べ、変動の速度は十分に遅い。このような変数についての入力データは、定数値の時系列データとしてもよい。
サンプルデータSDと同様の理由から、サンプルデータSDについても、m個の入力データW4i(t)(i=1~m)の全てを所定の低数値の時系列データとしている。サンプルデータSDにおける入力データW44(t)は、室内気温についての時系列データである。
なお、本実施形態では、サンプルデータSDは、シミュレーションモデルSMの解であるとして説明したが、これに限られるものではない。例えば、ショーケース2に対する所定期間の入力データと出力データとの実績値を複数取得し、これらをサンプルデータSDとしてもよい。
[代理モデル]
図7は、代理モデル8を説明する図である。代理モデル8は、第1層L1と、第2層L2と、第3層L3との夫々におけるモデルを含む。以下、夫々のモデルについて説明する。
第1層L1の遅れモデルDMijは、入力W(i=1~m)に対して、時間的な遅れを施して出力する処理を実行するモデルである。具体的には、遅れモデルDMijは、以下に示す遅れ要素(以下、「第1遅れ要素」と称する)を含む処理を実行する。
Figure 0007010403000002
これらの式において、t(kは整数)は、離散化された時間である。Δt≡t-tk-1は、離散化された時間のステップ間隔である。式1-2のpは整数であって、時刻tk-pは、時刻tに影響を及ぼす時刻の範囲の最も過去の時刻となるよう予め設定される。
本実施形態において、第1遅れ要素は、少なくとも遅れの時定数Tと、むだ時間dとを含む。なお、遅れの時定数Tと、むだ時間dとは、遅れモデルDMij毎に定められるパラメータである。
第1層L1の進みモデルAMijは、入力W(i=1~m)に対して、時間的な進みを施して出力する処理を実行する。具体的には、進みモデルAMijは、以下に示す進み要素を含む処理を実行する。
Figure 0007010403000003
本実施形態において、進み要素は、少なくとも進み時定数Tと、ゲインGとを含む。なお、進み時定数Tと、ゲインGとは、遅れモデルDMij毎に定められるパラメータである。
第2層L2の学習モデル6は、前述の学習データ5を用いて生成されたモデルである。学習モデル6は、第1層L1からの出力X(i=1~m)に対して、時間的な要素を含まない処理を実行し、出力データY~Yを出力する。なお、図7においては、出力データY~Yのうち、出力データYを示している。
第3層L3の平滑化モデルSMは、入力に対して、時間的な遅れを施して出力する処理を実行する。具体的には、平滑化モデルSMは、以下に示す遅れ要素(以下、「第2遅れ要素」と称する)を含む処理を実行する。
Figure 0007010403000004
本実施形態において、第2遅れ要素は、少なくとも遅れの時定数Tαを含む。なお、遅れの時定数Tαは、平滑化モデルSM毎に定められるパラメータである。
以下では、前述の第1遅れ要素(遅れの時定数T、むだ時間d)と、進み要素(進み時定数T、ゲインG)と、第2遅れ要素(遅れの時定数Tα)とを、「各種パラメータ7」と称する。
詳細は後述するが、各種パラメータ7は、第1層L1に入力された入力データW(t)(i=1~m)がシミュレーションモデルSMに入力された際の出力データZsj(t)(j=1~n)と、第3層L3から出力された出力データZ(t)(j=1~n)とを比較し、両者が一致するように、最適化されることによって同定される。
[情報処理装置3の機能ブロック]
図8は、本実施形態の図2の情報処理装置3の機能ブロックを示す図である。本実施形態の情報処理装置3には、プロセッサ300が所定のプログラムを実行することにより、取得部310と、モデル生成部311と、取得部312と、パラメータ同定部313と、出力部314とが実現される。
取得部310は、補助記憶装置302に記憶された学習データ5を取得する。
モデル生成部311は、取得部310が取得した学習データ5に基づき、代理モデル8の第2層L2の学習モデル6を生成する。学習モデル6は、学習データ5が含む複数のデータ50の夫々について、入力データを入力した場合に、対応する出力データを出力するよう学習済みの学習モデルである。
取得部312は、補助記憶装置302に記憶されたサンプルデータSDを取得する。
パラメータ同定部313は、詳細は後述するが、サンプルデータSDに基づいて、代理モデル8の第1層L1の遅れモデルDMij及び進みモデルAMij、第3層L3の平滑化モデルDMで用いられる各種パラメータ7を同定する。
出力部314は、モデル生成部311が生成した学習モデル6と、パラメータ同定部313が同定した各種パラメータ7とを、情報処理装置4の補助記憶装置402(後述)に出力する。
<学習モデルを出力するまでの処理>
図9は、情報処理装置3が図7の学習モデル6を生成するまでの処理の流れを説明するフローチャートである。学習モデル6を生成するまでの処理は、ステップS101~ステップS103を含んでいる。
先ず、取得部310は、ステップS101において、補助記憶装置302から学習データ5を取得する。図4に示した学習データ5は、ステップS101において取得部310が取得した学習データの一例である。
次いで、モデル生成部311は、ステップS102において、図4に示した学習データ5を用いて、学習モデル6を生成する。
本実施形態では学習モデル6がニューラルネットワークであるものとして説明する。なお、学習モデル6はSVM(Support Vector Machine)、ベイジアンネットワーク、回帰木等、他の学習アルゴリズムで構築された学習モデルであってよい。
モデル生成部311は、学習データ5における入力データを、図示しないニューラルネットワークの入力層に入力し、出力層からデータを取得する。そして、モデル生成部311は、出力層から出力されたデータと、学習データ5における出力データとを比較し、両者が一致するように、演算処理に用いるパラメータを最適化する。
演算処理に用いるパラメータとは、例えばニューロン間の重み(結合係数)、各ニューロンで用いられる活性化関数の係数等である。パラメータの最適化の方法は特に限定されないが、モデル生成部311は、例えば誤差逆伝播法を用いてパラメータの最適化を行う。
ここで、学習モデル6の学習に用いられる学習データ5の夫々は、前述のように定数値の時系列データである。そのため、ここでの学習において、複数のデータ50の夫々が仮に動的な時系列データである場合に比べると、計算のコストは小さい。
次いで、出力部314は、ステップS103において、モデル生成部311が生成した学習モデル6を、情報処理装置4の補助記憶装置402(後述)に出力する。この結果、図7の代理モデル8のうち、第2層L2の学習モデル6が得られることになる。
<各種パラメータを出力するまでの処理>
図9は、情報処理装置3が各種パラメータ7を出力するまでの処理の流れを説明するフローチャートである。
各種パラメータ7を出力するまでの処理は、ステップS201~ステップS204を含んでいる。
先ず、取得部312は、ステップS201において、補助記憶装置302に記憶されているm個のサンプルデータSD(k=1~m)を取得する。
次いで、パラメータ同定部313は、ステップS202において、冷凍機周波数の入力データW11(t)に対するパラメータ7の同定を実行する。
具体的には、パラメータ同定部313は、サンプルデータSDに基づいて、入力データW11(t)に施すための遅れモデルDM1j、進みモデルAM1j及び平滑化モデルSMが用いる各種パラメータ7の同定を実行する。
更に具体的には、パラメータ同定部313は、入力データW1i(t)(i=1~m)がシミュレーションモデルSMに入力された際の出力データZsj(t)(j=1~n)と、第1層L1に入力され、第3層L3から出力された出力データZ1j(t)(j=1~n)とを比較し、両者が一致するように、最適化することによって、入力データW11(t)に対するパラメータ7を同定する。
図11は、入力データW11(t)に対するパラメータ7を同定する方法について説明する図である。前述のように、サンプルデータSDでは、冷凍機周波数以外の入力データW1i(t)(i≠1)は、定数値の時系列データである。従って、図11に示すように、入力データW1i(t)(i≠1)については、第1層L1において、遅れモデルDMij及び進みモデルAMijによって変化を受けず、入力データX(t)として入力データW1i(t)がそのまま出力される。
このような場合、遅れモデルDM1j及び進みモデルAM1jについての各種パラメータ7の同定のみが可能である。
図12は、入力データW11(t)に対するパラメータ7を同定した代理モデル8を用いた計算結果の一例を説明する図である。図12において、サンプルデータSDの出力Z1i(t)(i=1~m)のうちZ11(t)が、破線で示されている。
また、図12において、パラメータ同定部313によって遅れモデルDM1j、進みモデルAM1j及び平滑化モデルSMについての各種パラメータ7が同定され、第3層L3から出力された出力データZ(t)~Z(t)のうちZ(t)が、実線で示されている。Zs1(t)と、Z(t)とは、いずれもケース内温度についての時系列データである。
このような同定処理がされることにより、代理モデルを用いた場合であっても、冷凍機周波数の入力データW11(t)に対し、シミュレーションモデルSMと同等の精度の出力を得ることができる。
パラメータ同定部313は、ステップS202の処理を、入力データW11(t)以外の入力データに用いられる各種パラメータ7について実行する(ステップS203)。
次いで、ステップS202に戻り、パラメータ同定部313は、膨張弁の開度の入力データW22(t)に対する、遅れモデルDM2j、進みモデルAM2j及び平滑化モデルSMについての各種パラメータ7の同定を実行する。
具体的には、パラメータ同定部313は、サンプルデータSDに基づいて、入力データW22(t)に施すための遅れモデルDM2j、進みモデルAM2j及び平滑化モデルSMが用いる各種パラメータ7の同定を実行する。
サンプルデータSDでは、膨張弁の開度以外の入力データW2i(t)(i≠1)は、定数値の時系列データである。従って、上記の冷凍機周波数の場合と同様にして、サンプルデータSDを用いて、遅れモデルDM2j、進みモデルAM2j及び平滑化モデルSMについての各種パラメータ7の同定を実行することができる。
上記と同様にして、パラメータ同定部313は、サンプルデータSDを用いて、未定の遅れモデルDMkj、進みモデルAMkj及び平滑化モデルSMについての各種パラメータ7の同定を実行する(k=5~m)。
なお、室外気温については、冷凍機周波数や膨張弁の開度といった他の変数に比べ、変動の速度は十分に遅く、一定とみなすことができる。そのため、室外気温に対するパラメータ7の同定は実行しなくてもよい。室内気温についても同様である。
なお、本実施形態では、サンプルデータSD(l=1~m)を用いて各種パラメータ7の同定を実行する毎に、平滑化モデルSMについての各種パラメータ7が同定される。
このような場合、例えば、複数の同定された平滑化モデルSMのうち、一の平滑化モデルSMについての各種パラメータ7を選択すればよい。例えば、第3層L3から出力された出力データZ(t)(j=1~n)と、シミュレーションモデルSMに入力された際の出力Zsj(t)(j=1~n)とを全てのjについて比較した場合の誤差が最も小さくするものを選択すればよい。
次いで、出力部314は、ステップS204において、遅れモデルDMlj、進みモデルAMlj及び平滑化モデルSM(l=1~m)が用いる同定された各種パラメータ7を、情報処理装置4の補助記憶装置402(後述)に出力する。
<各種パラメータが同定された結果>
以上説明した処理により、各種パラメータ7が同定されることによって、代理モデル8が生成される。代理モデルは、シミュレーションモデルSMよりも高速で計算を実行することができ、かつシミュレーションモデルと同等の精度で出力データを出力することができる。
[情報処理装置4のハードウェア構成]
図1の情報処理装置4は、上述したように、代理モデルを用いてシミュレーションを実行する装置である。図13は、情報処理装置4のハードウェアの一例を示す図である。例示する情報処理装置4は、ショーケース2の代理モデル8を用いて、ショーケース2のシミュレーションを実行する装置である。情報処理装置4は、プロセッサ400、主記憶装置401、補助記憶装置402、入力装置403、出力装置404、及び通信装置405を備える。
情報処理装置4のプロセッサ400、主記憶装置401、補助記憶装置402、入力装置403、出力装置404、及び通信装置405の構成は夫々、情報処理装置3のプロセッサ400、主記憶装置401、補助記憶装置402、入力装置403、出力装置404、及び通信装置405の構成と同様であるため、共通する部分の説明は省略する。
補助記憶装置402には、前述の学習モデル6と、各種パラメータ7とが記憶されている。学習モデル6は、図9のステップS103において出力部314が出力したものである。各種パラメータ7は、図10のステップS204において出力部314が出力したものである。
[情報処理装置4の機能ブロック]
図14は、本実施形態の情報処理装置4の機能ブロックを示す図である。本実施形態の情報処理装置4には、プロセッサ400が所定のプログラムを実行することにより、取得部410と、処理部411と、処理部412と、処理部413と、出力部414とが実現される。
取得部410は、ショーケース2に対する入力データを取得する。ここでの入力データは、ショーケース2を制御するために、ショーケース2に対して実際に入力された入力データW(t)(i=1~m)である。なお、入力データW(t)の変数は夫々、学習データ5の入力データW0i(t)の変数に対応している(i=1~m)。
処理部411(第1処理部に相当)は、ショーケース2に対して入力データW(t)(i=1~m)が入力された際にショーケース2において入力データが変化するよう、入力データW(t)(i=1~m)に対して、所定の時間要素を含む処理を施して出力する。
処理部411は、先ず、入力データW(t)(i=1~m)に対して、第1遅れ要素を含む処理を施して出力する。具体的には、処理部4111は、入力データW(t)を、遅れモデルDMij(図7)に入力して出力を得る(i=1~m)。
処理部411は、更に、入力データW(t)~W(t)に対して、進み要素を含む処理を更に施して出力する。具体的には、処理部411は、入力データW(t)を、進みモデルAMij(図7)に入力して出力を得る(i=1~m)。
そして、処理部411は、遅れモデルDMijの出力と、進みモデルAMijの出力との和を、新たな入力データX(t)(i=1~m)とする。
処理部412(第2処理部に相当)は、学習モデル6を用いて、処理部411からの出力に対応する出力データY(t)(j=1~n)を出力する。
処理部413(第3処理部に相当)は、出力データY(t)(j=1~n)に対して、第2遅れ要素を含む処理を施して出力する。具体的には、処理部413は、出力データYを、平滑化モデルSM(図7)に入力して出力を得る(j=1~n)。以上の処理部413による処理による出力を、新たな出力データZ(t)(j=1~n)とする。
出力部414は、出力データZ(t)(j=1~n)を出力装置404に出力する。
<出力データを出力するまでの処理>
図15は、情報処理装置4が出力データを出力するまでの処理の流れを説明するフローチャートである。出力データを出力するまでの処理は、ステップS301~ステップS306を含んでいる。
先ず、取得部410は、ステップS301においてショーケース2に対する入力データW(t)(i=1~m)を取得する。
次いで、処理部411は、ステップS302(第1ステップに相当)において、入力データW(t)(i=1~m)に対して、第1遅れ要素を含む処理を施す。
次いで、処理部411は、ステップS303において、入力データW(t)に対して、進み要素を含む処理を含む処理を更に施し、新たな入力データX(t)を出力する(i=1~m)。
次いで、処理部412は、ステップS304(第2ステップに相当)において、学習モデル6を用いて、処理部から出力された新たな入力データX(t)(i=1~m)に対応する出力データY(t)(j=1~n)を出力する。
次いで、処理部413は、ステップS305において、出力データY(t)(j=1~n)に対して、第2遅れ要素を含む処理を施して、新たな出力データZ(t)(j=1~n)を出力する。
次いで、出力部414は、ステップS306において、新たな出力データZ(t)(j=1~n)を、出力装置404に出力する。
==まとめ==
以上、上記実施形態の情報処理装置4は、所定の対象に対する入力データを取得する取得部410と、所定の対象に対して入力データが入力された際に所定の対象において入力データが変化するよう、入力データに対して、所定の時間要素を含む処理を施して出力する処理部411と、所定値の入力データに対応するデータを出力するとともに所定の対象を模擬した学習モデル6を用いて、処理部411からの出力に対応する出力データを出力する処理部412と、を備える。
このような構成によれば、処理部412が用いる学習モデル6は、所定値の定常な入力データに対応するデータを出力するものであって、動的な入力データに対応するデータを出力するものではない。つまり、学習モデル6として、動的な入力データに対応するデータを出力するものに比べて低コストで生成されたものを用いることができるため、情報処理装置4の導入コストを低減することができる。従って、このような構成によれば、所定の対象に対する入力データに起因する出力データを得るまでのコストが抑えられた情報処理装置4を提供することができる。
上記情報処理装置4において、処理部411は、入力データに対して、第1遅れ要素を含む処理を施して出力する。このような構成によれば、入力データに対して、所定の対象の応答が遅延する効果を含めることができる。従って、出力データが再現する所定の対象の応答の精度が向上する。
上記情報処理装置4において、第1遅れ要素は、少なくとも遅れの時定数と、むだ時間とを含む。このような構成によれば、第1遅れ要素の効果を高精度で考慮することができる。従って、出力データが再現する所定の対象の応答の精度が更に向上する。
上記情報処理装置4において、処理部411は、入力データに対して、進み要素を含む処理を更に施して出力する。このような構成によれば、入力データの変動の速度に対して、所定の対象が追随する効果を更に含めることができる。従って、出力データが再現する所定の対象の応答の精度が更に向上する。
上記情報処理装置4において、進み要素は、少なくとも進み時定数と、ゲインとを含む。このような構成によれば、進み要素の効果を高精度で考慮することができる。従って、出力データが再現する所定の対象の応答の精度が更に向上する。従って、出力データが再現する所定の対象の応答の精度が更に向上する。
上記情報処理装置4は、出力データに対して、第2遅れ要素を含む処理を施して出力する処理部413を更に備える。このような構成によれば、処理部411において含まれない遅れ要素の効果がある場合に、それを補完することができる。
上記情報処理装置4において、第2遅れ要素は、少なくとも遅れの時定数を含む。このような構成によれば、処理部411において含まれない遅れ要素の効果がある場合に、その補完の精度が向上する。
上記情報処理装置4において、所定の時間要素は、入力データが所定の対象を模擬しつつ、学習モデル6とは異なるシミュレーションモデルSMに入力された際の出力と、出力データと、が一致するよう定められる。このような構成によれば、所定の対象に対する入力データに起因する出力データを得るまでのコストが、シミュレーションモデルSMを用いる場合に比べて抑えられた情報処理装置4を提供することができる。
上記情報処理装置4において、所定の時間要素及び第2遅れ要素は、入力データが所定の対象を模擬しつつ、学習モデル6とは異なるシミュレーションモデルSMに入力された際の出力と、処理部413の出力と、が一致するよう定められる。このような構成によれば、所定の対象に対する入力データに起因する出力データを得るまでのコストが、シミュレーションモデルSMを用いる場合に比べて抑えられ、出力データが再現する所定の対象の応答の精度が更に向上した情報処理装置4を提供することができる。
1:情報処理システム
2:ショーケース
20:センサ
3:情報処理装置
300:プロセッサ
301:主記憶装置
302:補助記憶装置
303:入力装置
304:出力装置
305:通信装置
310:取得部
311:モデル生成部
312:取得部
313:パラメータ同定部
314:出力部
400:プロセッサ
401:主記憶装置
402:補助記憶装置
403:入力装置
404:出力装置
405:通信装置
410:取得部
411:処理部
412:処理部
413:処理部
414:出力部
5:学習データ
SD:サンプルデータ
6:学習モデル
7:パラメータ
8:代理モデル

Claims (10)

  1. 所定の対象に対する入力データを取得する取得部と、
    前記所定の対象に対して前記入力データが入力された際に前記所定の対象において前記入力データが変化するよう、前記入力データに対して、所定の時間要素を含む処理を施して出力する第1処理部と、
    所定値の前記入力データに対応するデータを出力するとともに前記所定の対象の定常状態における入出力を模擬した学習モデルを用いて、前記第1処理部からの出力に対応する出力データを出力する第2処理部と、
    を備える情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記第1処理部は、
    前記入力データに対して、第1遅れ要素を含む処理を施して出力する、
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記第1遅れ要素は、少なくとも遅れの時定数と、むだ時間とを含む、
    情報処理装置。
  4. 請求項2または請求項3に記載の情報処理装置であって、
    前記第1処理部は、
    前記入力データに対して、進み要素を含む処理を更に施して出力する、
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記進み要素は、少なくとも進み時定数と、ゲインとを含む、
    情報処理装置。
  6. 請求項1~5の何れか一項に記載の情報処理装置であって、
    前記出力データに対して、第2遅れ要素を含む処理を施して出力する第3処理部を更に備える、
    情報処理装置。
  7. 請求項6に記載の情報処理装置は、
    前記第2遅れ要素は、少なくとも遅れの時定数を含む、
    情報処理装置。
  8. 請求項1~5の何れか一項に記載の情報処理装置であって、
    前記所定の時間要素は、前記入力データが前記所定の対象を模擬しつつ、前記学習モデルとは異なるシミュレーションモデルに入力された際の出力と、前記出力データと、が一致するよう定められる、
    情報処理装置。
  9. 請求項6または請求項7に記載の情報処理装置であって、
    前記所定の時間要素は、前記入力データが前記所定の対象を模擬しつつ、前記学習モデルとは異なるシミュレーションモデルに入力された際の出力と、前記第3処理部の出力と、が一致するよう定められる、
    情報処理装置。
  10. 所定の対象に対する入力データを取得する第1ステップと、
    前記所定の対象に対して前記入力データが入力された際に前記所定の対象において前記入力データが変化するよう、前記入力データに対して、所定の時間要素を含む処理を施して出力する第2ステップと、
    所定値の前記入力データに対応するデータを出力するとともに、前記所定の対象の定常状態における入出力を模擬した学習モデルを用いて、前記第2ステップでの出力に対応する出力データを出力するステップと、
    を含む情報処理方法。
JP2021086028A 2021-05-21 2021-05-21 情報処理装置及び情報処理方法 Active JP7010403B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021086028A JP7010403B1 (ja) 2021-05-21 2021-05-21 情報処理装置及び情報処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021086028A JP7010403B1 (ja) 2021-05-21 2021-05-21 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JP7010403B1 true JP7010403B1 (ja) 2022-01-26
JP2022178907A JP2022178907A (ja) 2022-12-02

Family

ID=80678850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021086028A Active JP7010403B1 (ja) 2021-05-21 2021-05-21 情報処理装置及び情報処理方法

Country Status (1)

Country Link
JP (1) JP7010403B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014063391A (ja) 2012-09-21 2014-04-10 Mitsubishi Heavy Ind Ltd シミュレータシステム及びシミュレーション方法
JP2016181247A (ja) 2015-03-24 2016-10-13 株式会社神戸製鋼所 制御モデルのパラメータと外乱との同時推定方法、及びこの同時推定方法を用いた制御対象の制御方法。
JP2017184350A (ja) 2016-03-29 2017-10-05 株式会社東芝 縮約モデル作成装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014063391A (ja) 2012-09-21 2014-04-10 Mitsubishi Heavy Ind Ltd シミュレータシステム及びシミュレーション方法
JP2016181247A (ja) 2015-03-24 2016-10-13 株式会社神戸製鋼所 制御モデルのパラメータと外乱との同時推定方法、及びこの同時推定方法を用いた制御対象の制御方法。
JP2017184350A (ja) 2016-03-29 2017-10-05 株式会社東芝 縮約モデル作成装置

Also Published As

Publication number Publication date
JP2022178907A (ja) 2022-12-02

Similar Documents

Publication Publication Date Title
CN111652380B (zh) 针对机器学习算法进行算法参数调优的方法及系统
TWI444844B (zh) 模擬參數校正技術
WO2017166449A1 (zh) 机器学习模型生成方法和装置
JP2020522794A (ja) ニューラルネットワーク分類
US20190057284A1 (en) Data processing apparatus for accessing shared memory in processing structured data for modifying a parameter vector data structure
US9626631B2 (en) Analysis device, analysis method, and program
US11341034B2 (en) Analysis of verification parameters for training reduction
JP2022529178A (ja) 人工知能推奨モデルの特徴処理方法、装置、電子機器、及びコンピュータプログラム
JP6718500B2 (ja) 生産システムにおける出力効率の最適化
CN113822440A (zh) 用于确定机器学习样本的特征重要性的方法及系统
CN109416408A (zh) 震中距估计装置、震中距估计方法以及计算机可读记录介质
JP2018147280A (ja) データ分析装置及びデータ分析方法
US11804283B2 (en) Predicting molecular properties of molecular variants using residue-specific molecular structural features
JP7207596B1 (ja) 運転支援装置、運転支援方法及びプログラム
JP2019082874A (ja) 設計支援装置及び設計支援システム
JP7010403B1 (ja) 情報処理装置及び情報処理方法
JP7396847B2 (ja) 学習装置、学習方法および学習プログラム
JP2010049392A (ja) Pidコントローラのチューニング装置、pidコントローラのチューニング用プログラムおよびpidコントローラのチューニング方法
JP6816824B2 (ja) 分散システム、データ管理装置、データ管理方法、及びプログラム
US20140129507A1 (en) Information processing device, information processing method and program
JP2023520313A (ja) 不確定区間を有する性能予測の生成
JP2023179242A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Morgan et al. A physics-based machine learning technique rapidly reconstructs the wall-shear stress and pressure fields in coronary arteries
KR102321064B1 (ko) 부호화된 네트워크 생성 장치 및 방법
US10360509B2 (en) Apparatus and method for generating an optimal set of choices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210521

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211012

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211227

R150 Certificate of patent or registration of utility model

Ref document number: 7010403

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150