JP7449322B2 - 情報処理システム - Google Patents

情報処理システム Download PDF

Info

Publication number
JP7449322B2
JP7449322B2 JP2022040576A JP2022040576A JP7449322B2 JP 7449322 B2 JP7449322 B2 JP 7449322B2 JP 2022040576 A JP2022040576 A JP 2022040576A JP 2022040576 A JP2022040576 A JP 2022040576A JP 7449322 B2 JP7449322 B2 JP 7449322B2
Authority
JP
Japan
Prior art keywords
information processing
execution
trained model
model
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022040576A
Other languages
English (en)
Other versions
JP2022159005A (ja
Inventor
開 小玉
智也 小梶
有介 吉成
航 冨岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JFE Steel Corp
Original Assignee
JFE Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JFE Steel Corp filed Critical JFE Steel Corp
Publication of JP2022159005A publication Critical patent/JP2022159005A/ja
Application granted granted Critical
Publication of JP7449322B2 publication Critical patent/JP7449322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stored Programmes (AREA)

Description

本開示は、情報処理システムに関する。
近年、製鉄業において、鉄鋼製造で使われるモデルの高度化に機械学習が利用されてきている。
例えば、特許文献1は、複数の操業変数(説明変数)に基づいて構築された品質予測モデルを用いて、めっき鋼板の表面に発生する欠陥の有無などの製品品質を予測する。品質予測モデルの構築には、例えばランダムフォレストが用いられる。
特開2019-074969号公報
ここで、学習済みモデルは、製造ラインでの実績を学習データとして機械学習することで生成され得る。学習モデルの開発は、製造ラインを制御するプロセスコンピュータとは別のコンピュータを用いて実行される。学習済みモデルをプロセスコンピュータに適用する場合、プロセスコンピュータの動作環境で学習済みモデルを使用できるように、例えば専用のロードモジュールなどが作成されて、そのテストが行われる。そのため、従来技術では、新たな学習済みモデルの適用に時間がかかり、柔軟に学習済みモデルを追加したり、入れ替えたりすることが困難であった。
本開示は、かかる課題に鑑みてなされたものであり、学習済みモデルを容易に適用可能にする情報処理システムを提供することを目的とする。
本開示の情報処理システムは、
学習済みモデルを用いて情報処理を実行する情報処理システムであって、
前記情報処理の実行要求を受け取る入力部と、
前記情報処理の実行要求及び学習済みモデルに関する情報に基づいて、前記情報処理に用いる前記学習済みモデル及び入力するデータを特定し、特定した前記学習済みモデルの開発環境と同じ実行環境を準備し、前記実行環境において前記情報処理を実行する実行部と、を備える。
本開示によれば、学習済みモデルを容易に適用可能にする情報処理システムを提供することができる。
図1は、一実施形態に係る情報処理システムの概略構成を示す図である。 図2は、情報処理装置で実行される処理の流れを説明するための図である。 図3は、情報処理装置が実行する処理を例示するフローチャートである。 図4は、別の実施形態に係る情報処理システムの概略構成を示す図である。 図5は、情報処理装置が実行する処理を例示する別のフローチャートである。
以下、図面を参照して本開示の実施形態に係る情報処理システムが説明される。各図中、同一又は相当する部分には、同一符号が付されている。同一又は相当する部分については、説明を適宜省略又は簡略化する。
[第1実施形態]
(情報処理システムの構成)
図1は、本開示の第1実施形態に係る情報処理システム1の概略構成を示す図である。情報処理システム1は、ネットワークに接続される1つ以上の情報処理装置10を備える。ネットワークは、例えばインターネットであってよいし、LAN(Local Area Network)又はWAN(Wide Area Network)であってよい。図1の例において、情報処理システム1は、互いにネットワークで接続される情報処理装置10A及び情報処理装置10Bを備える。ここで、情報処理装置10Aと情報処理装置10Bを特に区別しない場合に、これらをまとめて、又は、これらのうちの任意の1つを指して情報処理装置10と記載することがある。同様に、プロセスコンピュータ100Aとプロセスコンピュータ100B、工程101Aと工程101B、学習済みモデル記憶装置20Aと学習済みモデル記憶装置20Bと学習済みモデル記憶装置20Cを特に区別しない場合に、それぞれプロセスコンピュータ100、工程101、学習済みモデル記憶装置20と記載することがある。
情報処理装置10は、実行要求に応じて、学習済みモデルを用いて情報処理を実行する。本実施形態において、情報処理装置10は、鋼板の製造の工程101を制御するプロセスコンピュータ100から実行要求を受け取る。本実施形態において、情報処理装置10が実行する情報処理は、学習済みモデルを用いた工程101の鋼板の特性値の予測計算である。情報処理装置10は、プロセスコンピュータ100から計算に必要な入力データも受け取り、情報処理の実行結果すなわち計算した特性値をプロセスコンピュータ100に出力する。ここで、実行される情報処理は、特性値の予測計算に限定されず、例えば製造される製品の欠陥予測、工程101の操業パラメータの修正値の計算などであってよい。
図1の例において、情報処理装置10Aは、圧延の工程101Aを制御するプロセスコンピュータ100Aからの実行要求に応じて情報処理を実行する。また、情報処理装置10Bは、情報処理装置10Aから独立した装置であって、転炉の工程101Bを制御するプロセスコンピュータ100Bからの実行要求に応じて情報処理を実行する。また、情報処理装置10Bは、情報処理装置10Aから離れた、異なる地区に設けられていてよい。
本実施形態において、情報処理装置10は、プロセスコンピュータ100とは別のコンピュータで構成される。つまり、プロセスコンピュータ100は、情報処理システム1の外部のコンピュータである。別の例として、情報処理装置10は、プロセスコンピュータ100に含まれてよい。つまり、情報処理システム1は、プロセスコンピュータ100を含む構成であってよい。このとき、情報処理装置10の各機能は、プロセスコンピュータ100によって実行されるプログラムで実現されてよい。
情報処理装置10は、開発環境においてオフラインで生成された学習済みモデルを、学習済みモデル記憶装置20から取得する。学習済みモデル記憶装置20は、学習済みモデルを記憶する記憶装置又はファイルサーバなどであり得る。学習済みモデルの取得とは、例えば学習済みモデル記憶装置20に記憶された学習済みモデルをコピーして、記憶部12に記憶させることであり得る。ここで、オフラインは製造ラインの操業と切り離されて処理が実行されることを示す。逆に、オンラインは製造ラインの操業の一部として処理が実行されることを示す。上記のプロセスコンピュータ100からの実行要求に応じた情報処理装置10の情報処理は、オンラインで実行される。
図1の例において、情報処理装置10Aは、情報処理装置10Aと同じ地区に設けられた学習済みモデル記憶装置20Aから学習済みモデルを取得できる。また、情報処理装置10Aは、情報処理装置10B及びネットワークを経由して、情報処理装置10Bと同じ地区に設けられた学習済みモデル記憶装置20Bから学習済みモデルを取得できる。また、情報処理装置10Aは、ネットワークを経由して、学習済みモデル記憶装置20Cから学習済みモデルを取得できる。つまり、情報処理装置10Aは、例えば同じ地区にある開発環境で生成された学習済みモデルだけでなく、ネットワーク経由で別の地区から学習済みモデルを取得できる。同様に、情報処理装置10Bは、学習済みモデル記憶装置20A、学習済みモデル記憶装置20B及び学習済みモデル記憶装置20Cの少なくとも1つから学習済みモデルを取得できる。情報処理システム1は、このような構成によって、学習済みモデルを生成された地区と異なる地区で使用すること、及び、複数の地区で使用することを可能にする。ここで、学習済みモデル記憶装置20は学習モデルを生成する開発装置に含まれる記憶装置であってよい。
情報処理装置10は、対応付けられた工程101に応じて、1つ以上の学習済みモデルを取得する。図1の例において、情報処理装置10Aは、圧延の工程101Aに関連する1つ以上の学習済みモデルを取得する。情報処理装置10Aは、例えば圧延の工程101Aにおける鋼板の温度及び厚さなどの測定値を入力とし、予測される工程101Aの出側における端部変形抵抗を出力とする学習済みモデルを取得してよい。また、情報処理装置10Bは、転炉の工程101Bに関連する1つ以上の学習済みモデルを取得する。
本実施形態において、情報処理装置10は、入力部11と、記憶部12と、実行部13と、出力部14と、を備える。情報処理装置10Bの構成は、情報処理装置10Aの構成と同じである。以下において、主に情報処理装置10Aの例を用いて、情報処理装置10の機能及び情報処理が説明される。
入力部11は、情報処理装置10の外部から各種のデータを受け取る。各種のデータは、有線通信及び無線通信の少なくとも一方を用いて取得されてよい。本実施形態において、入力部11は、製造ラインを制御するプロセスコンピュータ100から、情報処理の実行要求及び入力データを受け取る。入力部11は、入出力定義ファイルに基づいて入力データを変換して、変換後の入力データを実行部13に出力する。また、入力部11は、例えばネットワーク経由で、学習済みモデル記憶装置20から学習済みモデルを受け取ってよい。
記憶部12は、情報処理に必要なデータなどを記憶する。記憶部12は、半導体記憶デバイス、光記憶デバイス及び磁気記憶デバイスなどの記憶デバイスを含んで構成される。本実施形態において、記憶部12は、学習済みモデル及び学習済みモデルに関連付けられた入出力定義ファイルを記憶する。
実行部13は、情報処理を実行する。本実施形態において、実行部13は、実行要求に応じて、学習済みモデルの開発環境と同じ実行環境で情報処理を実行させる。実行部13は、情報処理の実行結果を受け取って、出力部14に出力する。また、実行部13は、情報処理装置10が対応付けられた工程101に関連する学習済みモデルを記憶部12に記憶させる。実行部13が実行する処理の詳細については後述する。
出力部14は、情報処理装置10の外部に各種のデータを出力する。各種のデータは、有線通信及び無線通信の少なくとも一方を用いて出力されてよい。本実施形態において、入力部11は、プロセスコンピュータ100に、情報処理の実行結果を出力する。ここで、出力部14は、入出力定義ファイルに基づいて情報処理の実行結果を変換して、変換後の実行結果をプロセスコンピュータ100に出力する。
上記のように、本実施形態において、情報処理装置10は、プロセスコンピュータ100とは別のコンピュータで構成される。コンピュータは、例えばメモリ、CPU(Central Processing Unit)、ハードディスクドライブなどを備える。オペレーティングシステム(Operating System、OS)、ミドルウェア及びアプリケーションプログラムは、ハードディスクドライブに格納されて、CPUによって実行される際にハードディスクドライブからメモリに読み出されてよい。また、処理途中のデータについては、メモリに格納され、必要があればHDDに格納されてよい。各種機能は、CPU、メモリ、ハードディスクドライブなどのハードウエアと、OS、ミドルウェア、アプリケーションプログラムなどのソフトウェアとを有機的に協働させることにより実現される。記憶部12は、例えばメモリ及びハードディスクドライブで実現されてよい。入力部11、実行部13及び出力部14は、CPUが必要なソフトウェアを読み込んで動作することで実現されてよい。本実施形態において、入力部11、実行部13及び出力部14は、OS上で動作するミドルウェアによって実現される。そして、入力部11、実行部13及び出力部14の処理は、それぞれ別のプロセスとして実行される。また、実行中の処理で用いる学習済みモデルは、メモリに格納されてよい。
(処理の流れ)
図2は、本実施形態に係る情報処理システム1の情報処理装置10で実行される処理の流れを説明するための図である。また、図3は、情報処理装置10が実行する処理を例示するフローチャートである。以下、図2を参照しながら、図3のフローチャートに沿って情報処理の流れが説明される。
情報処理装置10の実行部13は、オフラインで生成された1つ以上の学習済みモデルを記憶部12に記憶させる(ステップS1)。上記のとおり、1つ以上の学習済みモデルは、例えばネットワーク経由で、学習済みモデル記憶装置20から取得される。実行部13は、入力部11が学習済みモデル記憶装置20から受け取った学習済みモデルを(図2参照)、記憶部12に記憶させる。
ここで、学習済みモデルは、プロセスコンピュータ100が工程101を制御するためのプログラムと異なる言語を用いて生成される場合が多い。例えばプロセスコンピュータ100のプログラムはC言語を用いる。一方、学習済みモデルは、Java(登録商標)又はPythonなどを用いるさまざまな人工知能モデルの開発環境において生成される。本実施形態に係る情報処理システム1の情報処理装置10は、学習済みモデルの開発環境と同じ実行環境を用意する。情報処理装置10は、例えばJava(登録商標)を用いて作られたモデルが動作する第1の実行環境と、例えばPythonを用いて作られたモデルが動作する第2の実行環境と、を用意する。記憶部12に記憶された学習済みモデルは、開発環境に合わせて、第1の実行環境又は第2の実行環境で直ちに使用される。ここで、実行環境は、学習済みモデルの開発環境の種類に対応して用意されればよい。上記の例では、第1の実行環境と第2の実行環境の2つを用意するだけで、全ての学習済みモデルに対応できる。そのため、全ての学習済みモデルに対して、プロセスコンピュータ100の実行環境にあわせて、個別に専用のロードモジュールなどを用意する従来技術に比べて、新たな学習済みモデルを導入する際の手間が軽減され、導入までの時間も早くなる。実行環境は、上記のJava(登録商標)あるいはPythonなどを利用して作成されたプログラムを実行可能なプロセス、あるいはタスクなどのプログラムであってよい。
また、学習済みモデルは、入力データと出力データの間に相関関係などの出力を特定することが可能な関係が存在するデータに基づいて構築される機械学習モデルである。例えば、ニューラルネットワーク、ロジスティック回帰、決定木又はランダムフォレストなどを含む人工知能技術を利用した機械学習モデルが用いられてよい。
また、実行部13は、記憶部12に記憶させる1つ以上の学習済みモデルのそれぞれについて入出力定義ファイルを作成する。入出力定義ファイルは、プロセスコンピュータ100からの入力データと、学習済みモデルの入力とを対応付ける。また、入出力定義ファイルは、プロセスコンピュータ100が要求する実行結果と、学習済みモデルの出力とを対応付ける。入出力定義ファイルは、さらに、学習済みモデルに適する実行環境を定めてよい。実行部13は、作成した入出力定義ファイルを、学習済みモデルと関連付けて記憶部12に記憶させる。
ここで、学習済みモデルを記憶部12に記憶させる処理は、入力部11がプロセスコンピュータ100から実行要求を受け取る前に実行される。したがって、実行要求があってから学習済みモデルの取得を開始する場合と比べて、学習済みモデルをロードする時間を短縮でき、結果を得るまでの時間を早めることができる。このことは、鋼板の製造のようにラインを鋼板が流れており、短時間で予測計算の結果を得る必要がある場合などにおいて、特に有用である。
情報処理装置10の入力部11は、プロセスコンピュータ100から実行要求及び入力データを受信する(ステップS2)。入力部11は、入出力定義ファイルに基づいて入力データを変換して、変換後の入力データを実行要求とともに実行部13に出力する。実行部13への出力は、内部ソケット送信プロセスとして実行されてよい。ここで、入力データの変換は、変換後の入力データが直ちに学習済みモデルに入力可能であるように実行される。入力データの変換は、データの並び替え、不要なデータの削除、ファイル形式の変更などを含んでよい。
実行要求を受け取った実行部13は、学習モデルの開発環境と同じ実行環境で情報処理を実行させる(ステップS3)。より具体的に言うと、実行部13は、適する実行環境において実行要求のあった学習済みモデルを起動させて、入力部11による変換後の入力データを学習済みモデルに入力させる。適する実行環境の選択に際しては、入出力定義ファイルが参照されてよい。
ここで、記憶部12が複数の学習済みモデルを記憶している場合に、実行部13は、入力部11が受け取った入力データに応じて、複数の学習済みモデルのうちの1つを用いて情報処理を実行させてよい。例えば、鋼板の特性値の予測計算のための学習済みモデルと、欠陥予測のための学習済みモデルと、が記憶部12に記憶されている場合に、実行部13は、入力データが欠陥予測に必要な項目を含めば、欠陥予測のための学習済みモデルの方を選択する。この選択において、実行部13は、入力部11による変換後の入力データによって判定してよいし、入力部11から変換前の入力データを受け取り、変換前の入力データによって判定してよい。
複数の学習済みモデルを実行させる場合、入出力定義ファイルは、例えば、複数の学習済みモデルに区別可能な識別子を対応付け、対応する識別子を入出力定義ファイルに記載してよい。情報処理装置では、複数の学習済みモデルと識別子との関係、各学習済みモデルの入出力定義情報、また各学習済みモデルの実行環境とを併せて例えばテーブル管理し、記憶部12に記憶された各学習済みモデルと対応づけてよい。
このように、呼び出し対象の学習済みモデルに対して、学習済みモデルの入出力定義ファイルと、実行する学習済みモデルの識別テーブルと、学習済みモデルの開発環境と同一の実行環境と、登録保存された学習済みモデルのプログラムが関連して動作することで、学習済みモデルの開発環境の如何を問わず、外部からの呼び出しに応じた学習済みモデルを任意に実行可能なシステムが構築できる。
実行部13は、情報処理の実行結果、すなわち学習済みモデルの出力を受け取って、出力部14に出力する。出力部14は、内部ソケット受信プロセスとして、実行部13から実行結果を受け取ってよい。出力部14は、入出力定義ファイルに基づいて、受け取った実行結果を変換する。そして、出力部14は、変換された情報処理の実行結果を、プロセスコンピュータ100に出力する(ステップS4)。ここで、実行結果の変換は、変換後の実行結果が直ちにプロセスコンピュータ100で使用できるように実行される。実行結果の変換は、データの並び替え、不要なデータの削除、ファイル形式の変更などを含んでよい。このことは、鋼板の製造のようにラインを鋼板が流れているために、プロセスコンピュータ100が短時間で結果に基づく制御を行う必要がある場合において、特に有用である。
[第2実施形態]
図4は、本開示の第2実施形態に係る情報処理システム1の概略構成を示す図である。本実施形態に係る情報処理システム1は、学習済みモデルに関する情報を含むモデル情報管理ファイルを用いることが第1実施形態と異なる。モデル情報管理ファイルは、入出力定義ファイルの内容も包含する。重複説明を回避するため、第1実施形態と異なる構成が以下に説明される。
本実施形態において、情報処理システム1は、ネットワークに接続される1つの情報処理装置10で構成される。図4では情報処理システム1の表記を省略する。第1実施形態において複数の情報処理装置10で構成される情報処理システム1を例示したが、本実施形態においては、1つの情報処理装置10が1つ又は複数のプロセスと関連付けられて、1つ又は複数のプロセスの学習済みモデルを用いて実行要求に応じて情報処理を実行する。つまり、本実施形態においては、1つの情報処理装置10が、第1実施形態における複数の情報処理装置10の処理を実行する。また、本実施形態においては、1つの情報処理装置10が1つ又は複数のプロセスコンピュータ100からの実行要求に応じて情報処理を実行して、実行要求を行ったプロセスコンピュータ100に対して実行結果を出力する。また、本実施形態においては、1つの情報処理装置10がネットワークで接続された1つ又は複数の学習済みモデル記憶装置20にアクセスする。図4では、図示の都合上、1つの工程101、1つのプロセスコンピュータ100及び1つの学習済みモデル記憶装置20を示す。
本実施形態において、情報処理装置10の記憶部12は、モデル情報管理ファイルを記憶する。モデル情報管理ファイルは、学習済みモデルの実行、格納(記憶)、入出力定義などに必要な情報を含む。より具体的に述べると、モデル情報管理ファイルは、入出力定義ファイルの内容に加えて、学習済みモデルに関する識別子、格納場所、ファイル名及び実行環境の少なくとも1つの情報を含む。ここで、識別子は、それぞれの学習済みモデルに固有の名称が付されている場合に、名称が用いられてよい。また、識別子は、学習済みモデル自体を特定するだけでなく、その学習済みモデルを使用するプロセスコンピュータ100を識別する情報(関連するプロセスコンピュータ100の識別子)を含んで構成される。格納場所は、ハードディスク内のパスなどが使用されてよい。また、モデル情報管理ファイルが含む入出力定義などに必要な情報は、例えば別に記憶されている入出力定義ファイルのファイル名及びパスであってよい。
本実施形態において、情報処理装置10(情報処理システム1)は、送信された入力情報とモデル情報管理ファイルの情報に基づいて、複数の学習済みモデルのそれぞれを判定(特定)し、情報処理を実行することができる。例えばプロセスコンピュータ100によって複数の異なるモデルを用いる複数の情報処理を要求されたような場合に、情報処理装置10は、送信された入力情報とモデル情報管理ファイルの情報に基づいて、指定された学習済みモデルのそれぞれを識別して、それぞれの格納場所、実行環境などの情報を得て、要求された情報処理のそれぞれを適切に実行できる。
本実施形態において、情報処理装置10の記憶部12は、一時記憶を行う領域と、それ以外の領域とに分けられる。記憶部12が例えばRAMを有して構成されて、RAMの記憶領域が一時記憶に用いられてよい。また、記憶部12が例えばHDD又はSSDを有して構成されて、HDD又はSSDの記憶領域が、一時記憶以外の領域(ストレージ部分)として用いられてよい。モデル情報管理ファイルは、ストレージ部分に記憶される。情報処理装置10が情報処理を実行する場合に、一時記憶を行う領域に、プロセスコンピュータ100によって要求された学習済みモデルが読み込まれてよい。また、後述するように、プロセスコンピュータ100による実行要求の前に、情報処理装置10が予め学習済みモデルを一時記憶を行う領域にまで展開してよい。
図5は、本実施形態において、情報処理装置10が実行する処理を例示するフローチャートである。図5において、プロセスコンピュータ100とのデータ送受信を破線で示している。本実施形態において、情報処理システム1は、複数のプロセスコンピュータ100とのデータ送受信を行ってよいし、プロセスコンピュータ100からの実行要求が複数回であってよいし、複数の実行要求で対象とされる学習済みモデルが異なっていてよい。
情報処理装置10は、学習済モデルを用いた情報処理を実行するためのミドルウェアを起動して、プロセスコンピュータ100からの実行要求があるまで待機する(ステップS11)。第1実施形態と同様に、ミドルウェアによって入力部11、実行部13及び出力部14の機能が実現される。
情報処理装置10は、プロセスコンピュータ100から実行要求を受信する(ステップS12)。実行要求は、プロセスコンピュータ100から受信伝文として、情報処理装置10に送信されてよい。受信伝文に含まれる入力情報のコード(トランザクションコード)によって、学習済みモデル及びその学習済みモデルに対する入力が特定されてよい。つまり、情報処理装置10は、モデル情報管理ファイルで対応付けられたモデルを特定し、入出力定義などに必要な情報によってデータの読み方を特定し、受信した伝文を解析して入力を確定してよい。第1実施形態において入力データが実行要求と共にプロセスコンピュータ100から直接的に送信されたが、本実施形態においては、学習済みモデルに対して入力するデータの情報が実行要求に含まれてプロセスコンピュータ100から送信される。また、受信伝文に、別のコードがさらに含まれてよい。例えば受信伝文に、タイムアウトまでの時間(情報処理の制限時間)を指定するコードがさらに含まれてよい。
情報処理装置10は、受信した実行要求から、実行する情報処理の対象である学習済みモデルを判定する(ステップS13)。情報処理装置10は、実行要求から例えば学習済みモデルの識別子などを抽出し、記憶部12から読みだしたモデル情報管理ファイルの情報と照合して、対象学習済みモデルを特定する。情報処理装置10は、モデル情報管理ファイルに基づいて、識別した対象学習済みモデルの格納場所、実行環境などの情報を取得する。また、情報処理装置10は、第1実施形態と同様に、入出力定義の情報に基づいて、学習済みモデルに対して入力するデータを変換する等の処理を実行する。
情報処理装置10は、対象学習済みモデルの実行環境が準備済みであれば(ステップS14のYes)、対象学習済みモデルを用いて情報処理を実行する(ステップS16)。情報処理装置10は、対象学習済みモデルの実行環境が準備済みでなければ(ステップS14のNo)、実行環境を準備して(ステップS15)、対象学習済みモデルを用いて情報処理を実行する(ステップS16)。実行環境は、第1実施形態と同様に、例えばJava(登録商標)あるいはPythonなどを利用して作成されたプログラムを実行可能なプロセスなどであってよい。
ここで、プロセスコンピュータ100からの実行要求に対する応答速度を速くする観点から、情報処理装置10は、実行要求の前に実行環境を準備済みの状態にしておくことが好ましい。情報処理装置10は、ミドルウェアの起動後に、実行要求があり得る全てのプロセスコンピュータ100から要求され得る全ての学習済みモデル(以下、「学習済みモデル候補」)を実行環境とともに予め一時記憶を行う領域に展開してよい。そして、情報処理装置10は、実行要求があった場合に、受信したデータを対応する実行環境に渡して、速やかに実行してよい。ここで、情報処理装置10は、学習済みモデル候補の全てを予め一時記憶を行う領域に展開してよいし、学習済みモデル候補の一部だけを展開してよい。また、情報処理装置10は、ミドルウェアの起動後であってステップS12の前に、プロセスコンピュータ100からのダミーの実行要求を受信してよい。ダミーの実行要求は、事前に要求される学習済みモデルを特定する情報を含むものであってよい。ダミーの実行要求は、例えば学習済みモデルの識別子を指定するトランザクションコードだけを含んでよい。情報処理装置10は、ダミーの実行要求で指定された学習済みモデルを実行環境とともに一時記憶を行う領域に展開した後に、本当の実行要求があるまで待機してよい。
情報処理装置10は、実行した情報処理の結果について出力用情報を生成する(ステップS17)。出力用情報は、プロセスコンピュータ100が要求するデータ形式の情報である。プロセスコンピュータ100が要求するデータ形式は、例えば上記の受信伝文に対応する送信伝文の形式であり得る。この場合に、情報処理装置10は、ステップS13で実行した入出力定義の情報に基づく変換の逆の処理を実行してよい。
情報処理装置10は、生成した出力用情報を、受信情報から特定したプロセスコンピュータ100に出力(送信)する(ステップS18)。
情報処理装置10は、例えば情報処理システム1の管理者などからミドルウェアを終了させる指示があれば(ステップS19のYes)、一連の処理を終了する。情報処理装置10は、ミドルウェアを終了させる指示がなければ(ステップS19のNo)、ステップS12の処理に戻る。
(実施例)
本実施形態に係る情報処理システム1は、例えば鋼板の製造の圧延の工程101を制御するプロセスコンピュータ100が、学習済みモデルを用いて出側における端部変形抵抗を予測する場合に用いられる。本実施例において、図4に示される構成の情報処理システム1(情報処理装置10)が用いられる。
実績データベース110は、圧延の工程101における過去の測定値及びプロセスコンピュータ100が制御に用いたそのときの設定値などを含む実績値を蓄積する。学習モデル開発装置120は、実績データベース110に蓄積された実績値から抽出された学習データを用いて、機械学習モデルを生成する。学習データは、例えばスラブ寸法、圧延命令寸法、鋼種、目標温度及び化学成分などを説明変数としてよい。また、学習データは、例えば端部変形抵抗を含む、工程101の出側における鋼板の特性実績値を目的変数としてよい。
機械学習は例えばニューラルネットワークが用いられてよい。ただし、これに限定されず、例えばロジスティック回帰、決定木又はランダムフォレストなどの手法が用いられてよい。使用される学習データの数は限定されないが、一例として30000以上であってよい。このように、学習モデル開発装置120は、オフラインで学習済みモデルを生成する。生成された学習済みモデルは、学習済みモデル記憶装置20に記憶される。ここで、学習済みモデル記憶装置20は、学習モデル開発装置120が備えるハードディスクドライブなどの記憶装置であってよい。
学習済みモデル記憶装置20に記憶された学習済みモデルは、圧延の工程101と対応付けられた情報処理装置10によってロードされる。情報処理装置10は、オンラインでプロセスコンピュータ100から実行要求及び入力データを受け取り、学習済みモデルを用いて端部変形抵抗の予測計算を実行させて、計算結果をプロセスコンピュータ100に出力する。プロセスコンピュータ100は、受け取った計算結果に基づいて、圧延の工程101の制御の調整を実行してよい。
以上のように、本開示による情報処理システム1は、上記の構成を備えることによって、プロセスコンピュータ100の動作環境に合わせて専用のロードモジュールを作成するといった手間及び時間をかけずに、オフラインで生成された学習済みモデルを用いることができる。つまり、本開示による情報処理システム1は、学習済みモデルを容易に適用可能にする。
本開示を図面及び実施例に基づき説明してきたが、当業者であれば本開示に基づき種々の変形及び修正を行うことが容易であることに注意されたい。従って、これらの変形及び修正は本開示の範囲に含まれることに留意されたい。例えば、各手段、各ステップなどに含まれる機能などは論理的に矛盾しないように再配置可能であり、複数の手段及びステップなどを1つに組み合わせたり、或いは分割したりすることが可能である。
上記の実施形態において、学習済みモデルに関する情報は、入出力定義ファイル又はモデル情報管理ファイルとして記憶部12に記憶されたが、情報処理装置10がアクセス可能な記憶装置にあればよく、記憶場所が限定されるものでない。また、学習済みモデルに関する情報は、ファイルであることに限定されず、例えば、学習済みモデルの管理情報のデータベースから抽出可能であってよい。したがって、上記の説明における入出力定義ファイル又はモデル情報管理ファイルは、「学習済みモデルに関する情報」と言い換えることが可能であって、記憶の形式及び記憶場所が限定されるものでない。
例えば図1の情報処理システム1及び情報処理装置10の構成は一例であり、構成要素の一部を含まなくてよい。また、情報処理システム1及び情報処理装置10は別の構成要素を備えてよい。例えば、情報処理システム1は、学習済みモデルを全ての開発環境から集めて保存する1つの学習済みモデル記憶装置20をさらに備える構成であってよい。
1 情報処理システム
10、10A、10B 情報処理装置
11 入力部
12 記憶部
13 実行部
14 出力部
20、20A、20B、20C 学習済みモデル記憶装置
100、100A、100B プロセスコンピュータ
110 実績データベース
120 学習モデル開発装置

Claims (5)

  1. 学習済みモデルを用いて情報処理を実行する情報処理システムであって、
    前記情報処理の実行要求を受け取る入力部と、
    前記情報処理の実行要求及び学習済みモデルに関する情報に基づいて、前記情報処理に用いる前記学習済みモデル及び入力するデータを特定し、特定した前記学習済みモデルの開発環境と同じ実行環境を準備し、前記実行環境において前記情報処理を実行する実行部と
    記憶部と、を備え、
    前記実行部は、前記入力部が前記情報処理の実行要求を受け取る前であって、ダミーの実行要求を受信した場合に、前記学習済みモデルを前記記憶部の一時記憶を行う領域に展開する、情報処理システム。
  2. 記実行部は、前記入力部が受け取った前記情報処理の実行要求に応じて、学習済みモデル候補のうちの1つであって展開された前記学習済みモデルを用いて前記情報処理を実行する、請求項1に記載の情報処理システム。
  3. 前記情報処理の実行結果を出力する出力部を、備える、請求項1又は2に記載の情報処理システム。
  4. 前記入力部は、製造ラインを制御するプロセスコンピュータから前記情報処理の実行要求を受け取る、請求項1からのいずれか一項に記載の情報処理システム。
  5. 前記プロセスコンピュータは、前記情報処理システムの外部のコンピュータである、請求項に記載の情報処理システム。
JP2022040576A 2021-03-31 2022-03-15 情報処理システム Active JP7449322B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021062148 2021-03-31
JP2021062148 2021-03-31

Publications (2)

Publication Number Publication Date
JP2022159005A JP2022159005A (ja) 2022-10-17
JP7449322B2 true JP7449322B2 (ja) 2024-03-13

Family

ID=83638577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022040576A Active JP7449322B2 (ja) 2021-03-31 2022-03-15 情報処理システム

Country Status (1)

Country Link
JP (1) JP7449322B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109552A (ja) 2018-12-28 2020-07-16 富士通クライアントコンピューティング株式会社 推論処理装置及び情報処理システム
WO2021005379A1 (en) 2019-07-11 2021-01-14 University Of Surrey Implementing machine learning in a resource-constrained environment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020109552A (ja) 2018-12-28 2020-07-16 富士通クライアントコンピューティング株式会社 推論処理装置及び情報処理システム
WO2021005379A1 (en) 2019-07-11 2021-01-14 University Of Surrey Implementing machine learning in a resource-constrained environment

Also Published As

Publication number Publication date
JP2022159005A (ja) 2022-10-17

Similar Documents

Publication Publication Date Title
AU2016259298B2 (en) Machine for development and deployment of analytical models
EP3182280B1 (en) Machine for development of analytical models
EP2210183B1 (en) Managing updates to create a virtual machine facsimile
EP2338112B1 (en) Batch processing system
US20200310769A1 (en) Method For Predicting The Successfulness Of The Execution Of A DevOps Release Pipeline
US11184452B2 (en) System and method for selecting proxy computer
US20190272471A1 (en) System and method for deploying a data analytics model in a target environment
US20130346992A1 (en) Computing system, method for controlling thereof, and computer-readable recording medium having computer program for controlling thereof
KR20210108319A (ko) 기계학습 기반 적응형 자동분류 방법 및 시스템
WO2014054230A1 (ja) 情報システム構築装置、情報システム構築方法および記憶媒体
JP7449322B2 (ja) 情報処理システム
US20240053753A1 (en) Method and system for converting a start-object situation into a target-object situation (Intuitive Tacit Solution Finding)
EP4141679A1 (en) Management of an app, especially testing the deployability of an app comprising a trained function using a virtual test environment, method and system
US11886939B2 (en) System, device, method and datastack for managing applications that manage operation of assets
CN112689804B (zh) 将技术设施的资产的数据集成到平台中的方法、数字平台和计算机程序产品
Tanane et al. Toward an adaptive approach to implement predictive maintenance in metallurgical industry SMEs through IoT and AI
CN114374677B (zh) 跨平台在线发布方法、装置、计算设备及存储介质
TWI805418B (zh) 動態載入腳本以改變料件處理動作之系統及方法
Vafaie et al. A New Statistical Method for Anomaly Detection in Distributed Systems
CN116167707A (zh) 流程的处理方法及装置、处理器和电子设备
WO2020261487A1 (ja) 解析装置、解析方法及び解析プログラム
Shafiq et al. Smart Decisional DNA Technology to Enhance Industry 4.0 Environment in Conjunction with Conventional Manufacturing
WO2021059460A1 (ja) エンジニアリングツール、学習装置、およびデータ収集システム
Yue et al. TimeLink: enabling dynamic runtime prediction for Flink iterative jobs
US20190259059A1 (en) System and method for predicting analytics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231003

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R150 Certificate of patent or registration of utility model

Ref document number: 7449322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150