JP5845945B2 - 操業予測装置、操業予測方法、及びコンピュータプログラム - Google Patents
操業予測装置、操業予測方法、及びコンピュータプログラム Download PDFInfo
- Publication number
- JP5845945B2 JP5845945B2 JP2012026434A JP2012026434A JP5845945B2 JP 5845945 B2 JP5845945 B2 JP 5845945B2 JP 2012026434 A JP2012026434 A JP 2012026434A JP 2012026434 A JP2012026434 A JP 2012026434A JP 5845945 B2 JP5845945 B2 JP 5845945B2
- Authority
- JP
- Japan
- Prior art keywords
- som
- data
- learning
- factor
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Description
本発明はこのような問題点に鑑みてなされたものであり、下工程の操業結果を予測するための予測モデルの学習用データを適切に選別しつつ、過学習を抑制できるようにすることを目的とする。
<第1の実施形態>
まず、本発明の第1の実施形態について説明する。
図1は、予測モデルを用いた予測結果と真の入出力関係との一例を概念的に示す図である。具体的に図1(a)は、従来のように、実績データのみを学習用データとして用いた局所予測モデルによる予測結果と真の入出力関係との一例を示す。
図1(a)に示すように、実績データ101のみを学習用データとした局所予測モデルを用いると、学習用データの数が少ないために、予測結果110と真の入出力関係120との差が大きくなることがある。
これに対して、図1(b)は、本実施形態での局所予測モデルによる予測結果と真の入出力関係との一例を示す。本実施形態では、後述する実績データから構築した自己組織化マップ(SOM)を用いて、疎らに存在する実績データを補間する補間データを生成する。図1(b)に示すように、実績データ101にSOMによる補間データ102を学習用データとして加えて局所予測モデルの学習を行うと、予測結果130の真の入出力関係120に対する精度の向上が可能となる。
以下、このように局所予測モデルによる予測結果を向上させて、局所予測モデルを用いた操業の予測を正確に行えるようにする操業予測装置の一実施形態について説明する。
(データ取得部201)
データ取得部201は、データを外部から取得して記憶する。本実施形態では、データとして、実績データXj及び操業結果予測対象データFを取得する。実績データXjとは、後述するSOM学習部206にて、SOMの学習に用いられる操業実績データである。実績データXjとしては、以下の(1)〜(37)の37次元の実績データを取得するものとする。操業結果予測対象データFとは、オペレータによるユーザインターフェースの操作に基づいて入力されるデータであって、後述する予測モデルへの入力とするデータである。操業結果予測対象データFとしては、以下の(1)〜(36)の36次元の実績データを取得するものとする。
(2)D01(材料因子);金属種D01の投入量(重量)
(3)D02(材料因子);金属種D02の投入量(重量)
(4)D03(材料因子);金属種D03の投入量(重量)
(5)D04(材料因子);金属種D04の投入量(重量)
(6)D05(材料因子);金属種D05の投入量(重量)
(7)D06(材料因子);金属種D06の投入量(重量)
(8)D07(材料因子);金属種D07の投入量(重量)
(9)D08(材料因子);金属種D08の投入量(重量)
(10)D09(材料因子);金属種D09の投入量(重量)
(11)D10(材料因子);金属種D10の投入量(重量)
(12)D合計(材料因子);金属種D01〜D10の投入量(重量)の合計
(14)G02(材料因子);金属種G02の投入量(重量)
(15)G03(材料因子);金属種G03の投入量(重量)
(16)G04(材料因子);金属種G04の投入量(重量)
(17)G05(材料因子);金属種G05の投入量(重量)
(18)G06(材料因子);金属種G06の投入量(重量)
(19)G合計(材料因子);金属種G01〜G10の投入量(重量)の合計
(21)装入(鍋状況因子);装入の処理にかかった時間
(22)鍋NO(鍋状況因子);取鍋に固有の番号
(23)修理後回数(鍋状況因子);取鍋の耐火物を簡単に補修(熱間補修)してからの取鍋の使用回数
(24)累計回数(鍋状況因子);大規模に取鍋の耐火物を補修(冷間補修)してからの取鍋の使用回数
(25)鍋下がり(鍋状況因子);取鍋に関する情報
(26)スラグ厚(鍋状況因子);取鍋に関する情報
(27)即時開孔(鍋状況因子);取鍋に関する情報
(28)AMEPA回数(鍋状況因子);取鍋に設置のスラグ検出器に関する情報
(29)AMEPA可否(鍋状況因子);取鍋に設置のスラグ検出器に関する情報
(30)空鍋時間(鍋状況因子);取鍋に関する情報(取鍋から溶鋼が連続鋳造機に流し込まれた後、当該取鍋に転炉から次の溶鋼が移されるまでの時間(すなわち、取鍋が空となっている時間))
(31)炉号(鍋状況因子);どの転炉を使用したかを示す情報
(32)炉代(鍋状況因子);使用している転炉の鍋に固有の番号
(33)炉回数(代)(鍋状況因子);溶鋼を出す孔(出鋼孔)の交換回数を示す情報(この孔は使用すると大きくなる)
(34)炉回数(回)(鍋状況因子);溶鋼を出す孔の交換後の使用回数を示す情報
(35)銑鉄(温度因子);溶銑の温度
(36)取鍋1(温度因子);出鋼温度(「取鍋最終」とは計測タイミングが異なる)
(37)吹止温度(操業結果因子);転炉の吹止温度
各チャージに付随する実績データの中には、使用する二次精錬設備名や連続鋳造設備名等、出鋼過程に全く関係ないものが含まれる。そこで、本実施形態では、出鋼過程に関係する37次元の実績データを採用するようにした。ただし、採用する実績データは、37次元の実績データに限定されるものではない。
尚、実績データに含まれる因子は前述したものに限定されず、また、各因子の具体的な項目の内容及び数も前述したものに限定されない。
データ正規化部202は、データ取得部201で取得された実績データXj及び操業結果予測対象データFの値を正規化する。データ正規化部202は、実績データXの各因子の項目毎に予め設定されている最大値及び最小値を記憶媒体から読み出し、以下の(1)式の計算を行うことにより正規化値を算出する。
正規化値=(実績値−最小値)/(最大値−最小値) ・・・(1)
(1)式の計算を行うことによって、実績データXj及び操業結果予測対象データFは0以上1以下の値のデータとなる。以降に説明する各ブロックで使用される実績データXj及び操業結果予測対象データFは、全て、データ正規化部202で正規化された実績データXj及び操業結果予測対象データFである。以下の説明では、必要に応じて「正規化した実績データ」、「正規化した操業結果予測対象データ」を、それぞれ「実績データ」、「操業結果予測対象データ」と称する。
本実施形態では、後述するように、自己組織化マップ(Self-Organizing Maps)を用いて、階層型ニューラルネットワークとして構築された予測モデルの学習に用いる「実績データの補間データ」を生成するようにしている。以下に、自己組織化マップの概要を説明する。尚、自己組織化マップの詳細については、非特許文献1等に記載されている。また、以下の説明では、必要に応じて「ニューラルネットワーク」を「NN」と称し、「自己組織化マップ」を「SOM」と称する。
図3に示すように、SOMは、入力層301と競合層302の2つの層からなる。
第1層は、n次元の入力層301(Xj=(Xj 1,Xj 2,・・・,Xj n)は(j=1,2,・・・,J;Jは実績データの数)である。前述したように本実施形態では、実績データは37次元のデータであるので、nは「19」となる。第2層は、例えば2次元の格子状に配置されたSOMニューロンからなる競合層302である。尚、ここで、「SOMニューロン」という呼称の「SOM」は、予測モデルに用いられるNNのニューロンと区別して説明するための都合上、付したものである。このように、SOMには、入力層301のSOMニューロンと競合層302のSOMニューロンとが存在するが、以降に説明するSOMの学習においては、競合層302のSOMニューロンが対象になるので、今後断り無しに「SOMニューロン」と言う場合には、競合層302のSOMニューロンを指すものとする。
SOMによる補間データの作成の考え方としては、複数の実績データXjを、競合層302のSOMニューロンのうちの1つにそれぞれ対応付けて、複数の実績データXjに対応付いたSOMニューロンの値(SOMニューロンの内部に保持している参照ベクトル)を実績データXjに近づくように修正を行う。これと同時に競合層302上で隣接する近傍のSOMニューロンに対しても同様に、SOMニューロンの値の修正量を減じて修正を行う。これを繰り返して得られる競合層302のSOMニューロンが、補間データを表すものとする。
I=J×(P+1)2 ・・・(2)
図4には、一例として、2個の実績SOMニューロン401の間に1個の補間SOMニューロン402が生成されるように配置した場合を示す(実際には必ずしもこのように配置されない)。2種類のSOMニューロン401、402が均一に生成されているので、4つのSOMニューロンを1単位として、全体はこの単位の繰り返し配置となっている(図4に示す領域403に含まれる4つのSOMニューロン401a、402a、402c、402dが1単位であり、図4では4単位分を示している)。この場合、1つの実績データXjに対して4倍(内訳は、実績SOMニューロン401が1、補間SOMニューロン402が3)のSOMニューロンを用意する必要がある。
2個の実績SOMニューロン401の間にP個の補間SOMニューロン402を配置する場合のSOMニューロンの繰り返し配置の1単位分を図5に示す。1単位に含まれるSOMニューロン401、402の合計数は(1+P)2個あり、その内の1個が実績SOMニューロン401であり、それ以外は補間SOMニューロン402に相当する。つまり実績データXjの(1+P)2倍の個数のSOMニューロンを用意する必要がある。尚、ここで説明のために使用した実績SOMニューロン401と補間SOMニューロン402との両者を、後述する勝者実績データ抽出部212では、実績データXjの補間データとして区別なくSOMニューロンと扱っている。
本実施形態では、SOMパラメータ設定部203は、50×82個のSOMニューロン401、402を配置するものとする。実績データの数J=1024個に対して補間データの数P=1個としたので、SOMニューロンの数を1024×(1+1)2=4096個以上となるように、SOMニューロンを2次元の格子状に配置した。
SOMパラメータ設定部203は、例えば、CPUが、コンピュータプログラムに従って、SOMの初期状態の設定(SOMニューロンの配置(座標)と初期値の設定)を行い、その結果を、RAM等に記憶することにより実現される。
実績データ選択部204は、実績データ正規化部202で正規化された実績データXj(のセット)のうち、未選択の実績データXjを1つ選択する。
実績データ選択部204は、例えば、CPUが、コンピュータプログラムに従って、RAM等から実績データを読み出して、当該実績データをSOMの学習対象の実績データとしてRAM等に記憶することにより実現される。
(勝者SOMニューロン決定部205)
勝者SOMニューロン決定部205は、実績データ選択部204で選択された実績データXjの値(ベクトル)と、2次元の格子状に配置されたSOMニューロンの値(参照ベクトル)とのユークリッド距離を算出する。そして、勝者SOMニューロン決定部205は、算出したユークリッド距離が最小となるSOMニューロンを勝者SOMニューロンとして決定する。概念としては、図6に示す例のように、初期状態601のSOMニューロンの中から、実績データ610と矢印の方向が最も近いSOMニューロン602を選択することを指し、実績データ610と最も近いということで選択されたことを例えて「勝者」と名付けている。
|Xj−mc(t)|=min|Xj−mi(t)| ・・・(3)
ここで、Xjは、j番目の37次元の実績データ(37次元の参照ベクトルに相当)であり、mi(t)は、SOMニューロンiの現在値(37次元の参照ベクトル)である。また、minは、最小を採用することを示し、cは勝者SOMニューロン602であることを示す。
尚、本実施形態では、SOMニューロンの数が4100個(=50×82)であるので(すなわちiが1〜4100をとり得るので)、(3)式の右辺の「Xj−mi(t)」の値は4100個得られる。
勝者SOMニューロン決定部205は、例えば、CPUが、コンピュータプログラムに従って、RAM等から、SOMの初期状態601と、SOMの学習対象の実績データとを読み出して(3)式の計算を行って勝者SOMニューロン602を決定し、決定した勝者SOMニューロン602の情報をRAM等に記憶することによって実現される。
SOM学習部206は、勝者SOMニューロン決定部205により決定された勝者SOMニューロン602の値(参照ベクトル)と、競合層602上の配置で勝者SOMニューロン602に近い位置にある近傍SOMニューロンの値(参照ベクトル)とを、実績データ選択部204で選択された実績データXjの値(ベクトル)に近づける処理(学習処理)を、全ての実績データXjについて個別に行う。全ての実績データXjについて1度ずつ学習処理を行うことよって、学習回数を1回と数え、tを1だけ増加させる。概念としては、図6に示す例のように、勝者SOMニューロン602と近傍SOMニューロン603a〜603hの矢印の方向が、実績データ610の矢印の方向に近づくようにする(図6の「更新」と示されているSOMニューロン602と603a〜603hを含むハッチング箇所を参照)。
mi(t+1)=mi(t)+hci(t)×|Xj−mi(t)| ・・・(4)
α(t)=α0×(1−t/T) ・・・(6)
Rcut(t)=Rcut0×(1−t/T) ・・・(7)
ここで、α(t)は学習率であり、その値は学習回数tに依存する。Rcut(t)は競合層302でSOMニューロンが配置されている仮想空間(2次元平面)上での距離を示す、カットオフ距離であり、その値は学習回数tに依存する(本実施形態では、このカットオフ距離Rcut(t)をSOMニューロンの座標を用いたマンハッタン距離で表す)。マンハッタン距離とは、2点の各座標の差の絶対値の総和を距離と定義するものである。
式で表すと、点a(座標(a1,a2))と点b(座標(b1,b2))の間のマンハッタン距離L(a,b)は以下の(8)式で表せる。
勝者SOMニューロン602から、競合層302上の配置で、このカットオフ距離Rcut(t)内にあるSOMニューロンが近傍SOMニューロン603となる。また、(5)式のrciは、勝者SOMニューロン602と近傍SOMニューロン603との競合層302上での距離である(本実施形態では、この距離rciをマンハッタン距離で表す)。尚、勝者SOMニューロン602について(4)式の計算をする場合には、rciは0(ゼロ)になる。また、(6)式において、α0は学習率α(t)の初期値であり、(7)式において、Rcut0はカットオフ距離Rcut(t)の初期値であり、(6)式及び(7)式において、Tは総学習回数である。
本実施形態では、総学習回数Tは100であり、カットオフ距離Rcut(t)は、その初期値Rcut0をRcut0=24としたので、24から0まで学習回数tの増加と共に減少する関数である。学習率α(t)は、その初期値α0をα0=0.5としたので、0.5から0まで学習回数tの増加と共に減少する関数であるとする。
SOM学習部206は、例えば、CPUが、コンピュータプログラムに従って、RAM等から、勝者SOMニューロン602の情報と、SOMの状態(競合層302上の各SOMニューロン(座標と参照ベクトル))と、実績データXjとを読み出すと共に、HDD等から、総学習回数Tと、学習率の初期値α0と、カットオフ距離の初期値Rcut0を読み出して、(4)式〜(7)式の計算を行って勝者SOMニューロン602及び近傍SOMニューロン603の値(参照ベクトル)を更新し、更新後のSOMの状態の情報をRAM等に記憶することによって実現される。
SOM学習終了判定部207は、SOM学習部206によるSOMの学習を終了するか否かを判定する。例えば、SOM学習部206によるSOMの学習を総学習回数T実行すると、SOM学習終了判定部207は、SOM学習部206によるSOMの学習を終了すると判定することができる。また、勝者SOMニューロン602及び近傍SOMニューロン603について求めた(4)式の右辺第2項の値を加算し、加算値が所定値を下回った場合には、勝者SOMニューロン602及び近傍SOMニューロン603の値(参照ベクトル)の修正量が小さくなったと判断し、SOM学習終了判定部207は、SOM学習部206によるSOMの学習を終了すると判定することができる。このように、SOM学習終了判定部207によるSOMの学習の終了判定の方法は、特に限定されるものではない。
SOM学習終了判定部207は、例えば、CPUが、コンピュータプログラムに従って、前述した判定基準による判定を行うことによって実現される。また、SOM記憶部208は、例えば、CPUが、コンピュータプログラムに従って、学習終了時のSOMの状態の情報をRAM等に記憶することによって実現される。
b)操業結果予測対象データF(段落[0018]で説明した、まだ操業実績が存在しない操業であって、操業結果因子を予測モデルによって予測したい対象である操業についての操業影響因子からなるデータ)から1つを選択して、予測モデル学習用SOMニューロン選択用データとして指定する(操業結果予測対象データ指定部210)。
d)前記a)で行った紐付けに従い、前記予測モデル学習用SOMニューロンに紐付けられた勝者実績データを選択する。この勝者実績データは、操業結果因子を予測したい操業結果予測対象データに近い操業条件の実績データ(=学習用実績データ)ということになる(勝者実績データ抽出部212)。
e)前記c)で選択された予測モデル学習用SOMニューロン(これを学習用補間データと呼ぶ)と、前記d)で選択された勝者実績データ(これを学習用実績データと呼ぶ)とを用いて、予測モデルの学習を行う。
以下に、各処理について詳細の手順を説明する。
勝者実績データ関連部209では、予測モデルを構築する際に補間データとして使用されるSOMニューロンが、何れの実績データXjの補間データになっているかを少なくとも1つ示す。勝者実績データ関連部209は、学習終了時のSOMニューロンiを1つ指定して、指定したSOMニューロンiと、実績データ正規化部202で正規化された全ての実績データXjの値(ベクトル)とのユークリッド距離を算出する。そして、勝者実績データ関連部209は、算出したユークリッド距離が最小となる実績データXjを、指定したSOMニューロンに対する勝者実績データXcとして決定する。この具体的な計算は、例えば、(9)式のmi(t)を、学習終了時のSOMニューロンの値(参照ベクトル)とし、Xjを、実績データの値(ベクトル)とし、Xcを、勝者実績データの値(ベクトル)とすれば実現できる。尚、この勝者実績データの決定は、競合層302上のSOMニューロンのそれぞれについて個別に行われる。
|mi(t)−Xc|=min|mi(t)−Xj| ・・・(9)
勝者実績データ関連部209は、例えば、CPUが、コンピュータプログラムに従って、RAM等から、全ての実績データの値(ベクトル)と、学習終了時のSOMニューロンの値とを読み出し、前述した計算を行って、勝者実績データの値を算出し、学習終了時のSOMニューロンの夫々に対して、勝者実績データXcの値を関連付けてRAM等に記憶することにより実現される。
操業結果予測対象データ指定部210は、データ正規化部202で正規化された操業結果予測対象データF(ベクトル)の1つを指定して、それを予測モデル学習用SOMニューロン選択用データFsとする。本実施形態では、材料因子は19次元の情報であり、鍋状況因子は14次元の情報であり、温度因子は3次元の情報である。よって、予測モデル学習用SOMニューロン選択用データFsは36次元のベクトルで表現される。ただし、転炉の吹止温度を操業結果因子として予測する際には、温度因子に関しては実績値を入手できないため、目標値を用いる。
操業結果予測対象データ指定部210は、例えば、CPUが、RAM等から、操業結果予測対象データの値(ベクトル)を読み出して予測モデル学習用SOMニューロン選択用データの情報としてRAM等に記憶することにより実現される。
予測モデル学習用SOMニューロン選択部211は、予測モデルとして構築するニューラルネットワーク(NN)を構築する際に必要となる学習用補間データを、SOMニューロンから選択するものである。学習終了時のSOMニューロンの値(参照ベクトル:37次元)のうち予測モデルの計算によって得られる因子(本実施形態では、操業結果因子1次元)を除く値mi-(36次元ベクトル)と、操業結果予測対象データ指定部210で指定された予測モデル学習用SOMニューロン選択用データFsの値(36次元ベクトル)とのユークリッド距離を算出する。そして、予測モデル学習用SOMニューロン選択部211は、算出したユークリッド距離が小さいものから順に、所定数のSOMニューロンを予測モデル学習用SOMニューロン(学習用補間データ)として選択する。尚、以下の説明では、前記所定数を必要に応じて「近傍点数」と称する。
|Fs−mc-(t)|=min|Fs−mi-(t)| ・・・(10)
勝者実績データ抽出部212では、予測モデルの学習に用いる学習用実績データとして、SOMニューロンによる補間データに対応する勝者実績データXcを抽出する。すなわち、勝者実績データ抽出部212は、予測モデル学習用SOMニューロン選択部211で選択された予測モデル学習用SOMニューロン(学習用補間データ)に対し、勝者実績データ関連部209によって関連付けられた勝者実績データXcの値(ベクトル)を抽出する。そして、勝者実績データ抽出部212は、予測モデル学習用SOMニューロン選択部211で選択された予測モデル学習用SOMニューロンの値(参照ベクトル)と、抽出した勝者実績データの値(ベクトル)とをNNの学習に使用するデータ(学習用データ)とする。ここで、勝者実績データ抽出部212は、抽出した勝者実績データの中に、同じ実績データが重複する場合には、それらの重複を除いたものを学習用実績データとする。重複する実績データを学習用実績データとすると、後述するNNの学習が適切に行われなくなる虞があるからである。
勝者実績データ抽出部212は、例えば、CPUが、RAM等から、予測モデル学習用SOMニューロンの値(参照ベクトル)と、当該予測モデル学習用SOMニューロンに関連付けられている勝者実績データの値(ベクトル)を読み出し、勝者実績データの値の重複を排除した上で、それらを学習用データとしてRAM等に記憶することにより実現される。
NN学習部213は、予測モデルの一例である階層型ニューラルネットワークの結合重み係数(重み行列)の学習を行う。
本実施形態では、出力層を操業結果因子(転炉の吹止温度)とし、入力層を操業影響因子(材料因子、鍋状況因子、及び温度因子)とする、3層のニューラルネットワークを用いるものとする。ここで、出力層と入力層の数は、それぞれの因子の数に等しい数とする。すなわち、出力層の数を1とし、入力層の数を36とする。また、中間層の数は、入力層の数と、学習用データ(のセット)の数とのうち、何れか少ない方の数とする。
NN学習部213は、NNの学習を終了すると判断したときに得られているニューラルネットワークの情報をNN記憶部214に記憶する。
NN学習部213は、例えば、CPUが、RAM等から、学習用データを読み出して前述した処理を行ってニューラルネットワークを学習し、学習終了後のニューラルネットワークの情報を、例えばHDDにより実現されるNN記憶部214に記憶することによって実現される。尚、NN学習部213によるニューラルネットワークの学習は、公知の技術で実現できるので、ここでは、その詳細な説明を省略する。
NN予測部215は、オペレータによるユーザインターフェースの操作に基づいて、NN記憶部214に記憶されているニューラルネットワークの入力層に与える入力データ(操業結果予測対象データ指定部210で指定された予測モデル学習用SOMニューロン選択用データFs)を取得し、取得したデータをニューラルネットワークの入力層に与えて操業結果因子を得る(予測する)。本実施形態では、NN予測部215は、材料因子、鍋状況因子、及び温度因子のデータ(操業結果予測対象データ)を取得し、操業結果因子(転炉の吹止温度)を得る。操業結果予測対象データには、まだ操業実績が存在しない温度因子のデータを含む為、実績のない温度因子には目標値を設定し、入力に用いる。
NN予測部215は、例えば、CPUが、ユーザインターフェースの操作に基づく入力データをRAM等に記憶すると共に、HDD等から、学習終了後のニューラルネットワークの情報を読み出して、前述した処理を行うことによって、転炉の吹止温度の予測値を求めることにより実現される。
NN予測結果出力部216は、NN予測部215で予測された操業結果因子を出力する。NN予測結果出力部216は、例えば、転炉の吹止温度の予測値を、液晶ディスプレイ等の表示装置に表示したり、操業予測装置200に接続されたリムーバル記憶媒体に記憶したり、操業予測装置200内のHDD等に記憶したりすることができる。
NN予測結果出力部216は、例えば、CPUが、RAM等から、転炉の吹止温度の予測値を読み出して、表示データを生成したり、リムーバル記憶媒体やHDD等に記憶したりする処理を行うことにより実現される。
予測モデル学習に用いたSOMニューロンや実績データが特定の条件に適合したデータのみであるため、幅広い条件での予測に用いるには一般性に欠ける。そのため、NN破棄部217では、特定の条件が一致しない場合に予測モデルを再利用することが難しいので、これを破棄させる。NN破棄部217は、NN予測結果出力部216による処理が1回終了すると、NN記憶部214に記憶されている学習終了後のニューラルネットワークの情報を破棄(削除)する。このように本実施形態では、one-timeのNNの学習を採用するようにしている。
NN破棄部217は、例えば、CPUが、転炉の吹止温度の予測値の出力処理を終えた後、HDD等に記憶されている学習終了後のニューラルネットワークの情報を破棄する処理を行うことにより実現される。
次に、図7のフローチャートを参照しながら、操業予測装置200の処理動作の一例を説明する。
まず、図7−1のステップS1において、データ取得部201は、実績データXjと操業結果予測対象データFを外部から取得する。
次に、ステップS2において、データ正規化部202は、ステップS1で取得された実績データXjと操業結果予測対象データFの値を正規化する。
次に、ステップS3において、SOMパラメータ設定部203は、競合層302において、2次元の格子状にSOMニューロンを配置し、配置したSOMニューロンのそれぞれに対して初期値(mi(0))を設定する。
次に、ステップS5において、勝者SOMニューロン決定部205は、ステップS4で選択された実績データXjの値(ベクトル)とユークリッド距離が最も近いSOMニューロンを勝者SOMニューロンと602して決定する。
次に、ステップS6において、SOM学習部206は、ステップS5で決定された勝者SOMニューロン602の値(参照ベクトル)と、競合層302上の座標位置で勝者SOMニューロン602に近い位置にある近傍SOMニューロン603の値(参照ベクトル)とを、ステップS4で選択された実績データXjの値(ベクトル)に近づけるように修正(学習)する。
ステップS8に進むと、SOM記憶部208は、ステップS7でSOMの学習を終了すると判定されたときのSOMの状態(競合層302上の各SOMニューロン(座標と参照ベクトル))を、学習終了時のSOMニューロンの値(参照ベクトル)として記憶する。
次に、図7−2のステップS10において、操業結果予測対象データ指定部210は、ステップS2で正規化された操業結果予測対象データFの内の1つを予測モデル学習用SOMニューロン選択用データFsとして指定する。
次に、ステップS14において、NN学習部213は、予測モデルの一例であるニューラルネットワークの学習を終了するか否かを判定する。判定基準の一例は前述した通りである。この判定の結果、ニューラルネットワークの学習を終了しないと判定された場合には、ステップS13に戻る。そして、ニューラルネットワークの学習を終了すると判定されると、ステップS15に進む。
次に、ステップS16において、NN破棄部217は、学習終了時のニューラルネットワークを使用した転炉の吹止温度の予測値がNN予測部215によって求められ、且つ、その結果に対する出力処理がNN予測結果出力部216によって行われるまで(学習終了時のニューラルネットワークを使用した予測・出力が行われるまで)待機する。そして、学習終了時のニューラルネットワークを使用した予測・出力が行われると、ステップS17に進む。
ステップS17に進むと、NN破棄部217は、ステップS15でNN記憶部214に記憶された学習終了後のニューラルネットワークの情報を破棄(削除)する。
本実施形態の冒頭で説明したように、実績データ101のみを学習用データとした局所予測モデルを用いると、学習用データの数が少ないために、予測結果110と真の入出力関係120との差が大きくなることがある(図1(a)を参照)。これに対し、本実施形態では、以上の説明から明らかなように、実績データを元にSOMを構築し得られるSOMニューロンが、実績データに対する予測モデルの構築の際に補間データとして用いることが出来る。すなわち、図1(b)に示すように、実績データ101に加えてSOMニューロン102を学習用データとして加えた局所予測モデルを用いると、予測結果130の真の入出力関係120に対する精度が向上する。
本実施形態では、予測モデルとして階層型ニューラルネットワークを用いた場合を例に挙げて説明したが、予測モデルは階層型ニューラルネットワークに限定されない。すなわち、操業結果因子に影響を与える因子であって、製品又は半製品を製造するための操業因子である操業影響因子を入力し、当該操業影響因子の影響を受けて決定される操業結果である操業結果因子を出力する予測モデルであれば、どのような予測モデルであってもよい。また、操業結果因子は、転炉の吹止温度に限定されない。さらに、操業影響因子も、前述したものに限定されない。
次に、本発明の第2の実施形態について説明する。
前述した第1の実施形態では、実績データXjに含まれる、36個の操業影響因子のデータ(36次元のデータ)の全てを用いて、SOMの学習を行うようにした。これに対し、本実施形態では、SOMの学習に用いる操業影響因子を選択し、選択した操業影響因子のデータを用いてSOMの学習を行う。このように、本実施形態と、第1の実施形態とは、実績データ選択部204で選択される実績データXjが、全ての操業影響因子のデータではなく、前記のようにして選択された操業影響因子のデータである点が主として異なる。よって、本実施形態の説明において、第1の実施形態と同一の部分については、図1〜図7に付した符号と同一の符号を付す等して詳細な説明を省略する。
感度計算用NN学習部801は、後述する操業影響因子の感度を計算するために使用する感度計算用階層型ニューラルネットワークの結合重み係数(重み行列)の学習を行う。感度計算用階層型ニューラルネットワークの学習方法は、NN学習部213で説明した階層型ニューラルネットワークと同じであるので、ここでは、その詳細な説明を省略する。
感度計算用階層型NN学習部801は、例えば、CPUが、コンピュータプログラムに従って、RAM等から実績データを読み出して、感度計算用階層型ニューラルネットワークの学習を行い、その結果を示す情報をRAM等に記憶することにより実現される。
第1の感度計算用操業結果因子導出部802は、前記(1)〜(36)の操業影響因子の全ての値が(同一の)特定の値であるデータを、感度計算用階層型NN学習部801により学習された感度計算用階層型ニューラルネットワークに入力することにより、その出力である操業結果因子を得る。本実施形態では、特定の値として、正規化値の最大値である「1」と最小値である「0」との中央値である「0.5」を採用する。
尚、以下の説明では、第1の感度計算用操業結果因子導出部802で導出された操業結果因子の値を、必要に応じて「操業結果因子の基準値」と称する。
第1の感度計算用操業結果因子導出部802は、例えば、CPUが、コンピュータプログラムに従って、RAM等に記憶されている感度計算用階層型ニューラルネットワークに対して「0.5」を入力することにより、操業結果因子の基準値の情報を導出してRAM等に記憶することにより実現される。
第2の感度計算用操業結果因子導出部803は、前記(1)〜(36)の操業影響因子のうち、1つの操業影響因子の値が、第1の感度計算用操業結果因子導出部802で設定された特定の値とは異なる値であり、残りの操業影響因子の値が、第1の感度計算用操業結果因子導出部802で設定された特定の値であるデータを、感度計算用NN学習部801により学習された感度計算用階層型ニューラルネットワークに入力することにより、その出力である操業結果因子を得る。本実施形態では、第1の感度計算用操業結果因子導出部802で設定された特定の値とは異なる値として、正規化値の最大値である「1」を採用する。また、本実施形態では、前記(1)〜(36)の操業影響因子の数は「36」である。よって、第2の感度計算用操業結果因子導出部803は、36個の操業結果因子のそれぞれの値を「1」としたときの操業結果因子を36個得る。尚、以下の説明では、第2の感度計算用操業結果因子導出部803で導出された操業結果因子の値を、必要に応じて「操業結果因子の変動値」と称する。
感度導出部804は、前記(1)〜(36)の操業影響因子の感度をそれぞれ導出する。本実施形態では、操業影響因子の感度は、第1の感度計算用操業結果因子導出部802で導出された「操業結果因子の基準値」と、第2の感度計算用操業結果因子導出部803で得られた「操業結果因子の変動値」との差分の絶対値で定義される。
感度導出部804は、例えば、CPUが、コンピュータプログラムに従って、RAM等から、第1の操業影響因子の基準値と第2の操業影響因子の変動値とを読み出し、前述した計算を行って、各操業影響因子の感度を導出してRAM等に記憶することにより実現される。
本実施形態では、操業影響因子を入力層とし、操業結果因子を出力層とする3層の階層型ニューラルネットワークである操業影響因子選択用階層型ニューラルネットワークを用いて、SOMの学習を行うのに使用する1又は複数の操業影響因子を決定する。
このために、まず、操業影響因子選択用NN学習部805は、操業影響因子選択用階層型ニューラルネットワークを構築する。誤差評価部806は、構築された操業影響因子選択用階層型ニューラルネットワークの入力層に操業影響因子の実績データを与えることによって操業結果因子の予測値を導出し、当該操業結果因子の予測値と操業結果因子の実績データとの誤差を導出する。このような操業影響因子選択用階層型ニューラルネットワークの構築と誤差の導出とを、操業影響因子選択用階層型ニューラルネットワークの入力層(操業影響因子)を、感度の高いものから順に1つずつ増やして行う。これにより、入力層の数が異なる複数の操業影響因子選択用階層型ニューラルネットワークのそれぞれについての誤差(評価)が得られる。操業影響因子選択部807は、これら複数の操業影響因子選択用階層型ニューラルネットワークのうち、誤差が最も小さい操業影響因子選択用階層型ニューラルネットワークを割り出し、割り出した操業影響因子選択用階層型ニューラルネットワークの入力層となっている操業影響因子を、SOMの学習を行うのに使用する1又は複数の操業影響因子として決定する。以下に、操業影響因子選択用NN学習部805、誤差評価部806、及び操業影響因子選択部807が有する機能の詳細を説明する。
操業影響因子選択用NN学習部805は、操業影響因子選択用階層型ニューラルネットワークの結合重み係数(重み行列)の学習を行う。
操業影響因子選択用NN学習部805は、感度導出部804で導出された「各操業影響因子の感度」の値が大きい順に、操業影響因子を1つずつ選択し、操業影響因子を1つずつ増やす。次に、操業影響因子選択用NN学習部805は、選択した操業影響因子を、操業影響因子選択用階層型ニューラルネットワークの入力層とし、前記(37)の操業結果因子(転炉の吹止温度)を出力層とする、3層の階層型ニューラルネットワークを、操業影響因子選択用階層型ニューラルネットワークとして構築する。
誤差評価部806は、操業影響因子選択用NN学習部805により学習された操業影響因子選択用階層型ニューラルネットワークの入力層に、当該入力層に対応する操業影響因子の実績データXjを入力することにより、その出力である操業結果因子の予測値を得る。そして、誤差評価部806は、当該操業結果因子の予測値と、操業結果因子の実績データXjの値との誤差を、実績データXjのそれぞれについて導出し、それらの誤差二乗和を算出する。
本実施形態では、前記(1)〜(36)の操業影響因子の数は「36」であるので、操業影響因子選択用NN学習部805により、36個の操業影響因子選択用階層型ニューラルネットワークが構築される。したがって、誤差評価部806は、操業結果因子の予測値の計算として36回の計算を行う。よって、36個の誤差二乗和が算出される。また、本実施形態では、操業影響因子選択用NN学習部805により1つの操業影響因子選択用階層型ニューラルネットワークが構築される度に、誤差評価部806により1つの誤差二乗和が算出され、このような操業影響因子選択用階層型ニューラルネットワークの構築と誤差二乗和の算出とが36回繰り返し行われるようにしている。
誤差評価部806は、例えば、CPUが、コンピュータプログラムに従って、前述した誤差二乗和を導出し、導出した誤差二乗和をRAM等に記憶することにより実現される。
操業影響因子選択部807は、誤差評価部806により導出された36個の誤差二乗和のうち、最も値が小さい誤差二乗和が得られたときに操業影響因子選択用NN選択部805で選択された操業影響因子を、SOMの学習に使用する操業影響因子として決定する。
操業影響因子選択部807は、例えば、CPUが、コンピュータプログラムに従って、最も値が小さい誤差二乗和が得られたときの操業影響因子の情報をRAM等に記憶することにより実現される。
次に、図9のフローチャートを参照しながら、操業予測装置800の処理動作の一例を説明する。図9に示すフローチャートは、例えば、図7−1のステップS2とステップS3の間で実行されるものである。
まず、ステップS21において、感度計算用NN学習部801は、実績データXjを学習用データとして感度計算用階層型ニューラルネットワークの結合重み係数(重み行列)の学習を行う。
次に、ステップS22において、第1の感度計算用操業結果因子導出部802は、前記(1)〜(36)の操業影響因子の全ての値が「0.5」であるデータを、ステップS21で学習された後の感度計算用階層型ニューラルネットワークに入力することにより、その出力である操業結果因子の基準値を得る。
次に、ステップS24において、第2の感度計算用操業結果因子導出部803は、ステップS23で選択した操業影響因子の値が「1」であるデータと、残りの操業影響因子の値が「0.5」であるデータを、ステップS21で学習された後の感度計算用階層型ニューラルネットワークに入力することにより、その出力である操業結果因子の変動値を得る。
そして、前記(1)〜(36)の操業影響因子の全てについて、操業結果因子の変動値が得られると、ステップS26に進む。
次に、ステップS27において、操業影響因子選択用NN学習部805は、ステップS26で導出された36個の未選択の感度のうち、最も値が大きい感度が得られたときの操業結果因子を1つ選択する。
次に、ステップS28において、操業影響因子選択用NN学習部805は、実績データXjを学習用データとして、現在の時点までにステップS27で選択された全ての操業影響因子を入力層とする操業影響因子選択用階層型ニューラルネットワークを構築し、構築した操業影響因子選択用階層型ニューラルネットワークの結合重み係数(重み行列)の学習を行う。
次に、ステップS30において、誤差評価部806は、前記(1)〜(36)の操業影響因子の全てを選択したか否かを判定する。この判定の結果、前記(1)〜(36)の操業影響因子の全てを選択していない場合には、ステップS27に戻る。そして、前記(1)〜(36)の操業影響因子の全てを選択するまで、ステップS27〜S30の処理を繰り返し行う。
ステップS31に進むと、操業影響因子選択部807は、ステップS29で導出された「前記(1)〜(36)の操業影響因子の全てについての誤差二乗和」のうち、最も値が小さい誤差二乗和が得られたときの操業影響因子を、SOMの学習に使用する操業影響因子として決定する。
そして、図7のフローチャートのステップS3に進む。この場合、ステップS4において選択される実績データXjは、前記(1)〜(36)の操業影響因子のうち、ステップS31で決定された操業影響因子のデータとなる。
次に、本実施形態の実施例を説明する。
ここでは、4800件(4800チャージ)の実績データXjを使用した。1件の実績データXjは、前述した(1)〜(37)の37次元のデータである。これら4800組の実績データXjを時間順にソートして、操業時間が新しい800件の実績データXjを検証用データとし、残りの4000件の実績データXjを学習用データとした。
(2)D01(材料因子);金属種D01の投入量
(3)D02(材料因子);金属種D02の投入量
(4)D03(材料因子);金属種D03の投入量
(5)D04(材料因子);金属種D04の投入量
(6)D05(材料因子);金属種D05の投入量
(7)D06(材料因子);金属種D06の投入量
(8)D07(材料因子);金属種D07の投入量
(9)D08(材料因子);金属種D08の投入量
(10)D09(材料因子);金属種D09の投入量
(11)D10(材料因子);金属種D10の投入量
(12)D合計(材料因子);金属種D01〜D10の投入量の合計
(14)G02(材料因子);金属種G02の投入量
(15)G03(材料因子);金属種G03の投入量
(16)G04(材料因子);金属種G04の投入量
(17)G05(材料因子);金属種G05の投入量
(18)G06(材料因子);金属種G06の投入量
(19)G合計(材料因子);金属種G01〜G10の投入量の合計
(20)取鍋最終(温度因子);出鋼温度
(30)空鍋時間(鍋状況因子);空鍋時間
そして、予測モデル学習用SOMニューロンの値と、予測モデル学習用SOMニューロンに関連付けて記憶されている勝者実績データXcの値とを学習モデルの学習に使用する学習データとして、3層のニューラルネットワークの結合重み係数(重み行列)を更新(学習)した。
ここで、3層のニューラルネットワークのニューロン数を、以下のようにした。
入力層:21
中間層:21
出力層:1
また、結合重み係数(重み行列)については、PSO(Particle Swarm Optimization)を用いて計算(学習)した。
そして、予め設定されている近傍点数(25、121、225、441、625)のうち、最も値が大きい決定係数R2が得られたときの近傍点数は「225」であった。また、近傍点数が「225」であるときの決定係数R2の値は「0.833」であった。よって、近傍点数が「225」であるときの操業結果因子(転炉の吹止温度)を予測温度として採用した。
尚、本実施形態では、例えば、操業結果因子(転炉の吹止温度)が「操業予測因子」に対応する。また、例えば、材料因子、鍋状況因子、及び温度因子が「操業影響因子」に対応する。
また、例えば、データ取得部201を用いることにより「データ取得手段」が実現され、勝者SOMニューロン決定部205を用いることにより「勝者SOMニューロン決定手段」が実現される。また、SOM学習部206を用いることにより「SOM学習手段」が実現され、カットオフ距離Rcut(t)が「所定の範囲」に対応する。また、予測モデル学習用SOMニューロン選択部211を用いることにより「予測モデル学習用SOMニューロン選択手段」が実現される。また、勝者実績データ関連部209を用いることにより「勝者実績データ関連手段」が実現される。また、NN学習部213を用いることにより「予測モデル学習手段」が実現される。また、SOMパラメータ設定部203を用いることにより「SOMパラメータ設定手段」が実現される。また、データ正規化部202を用いることにより「データ正規化手段」が実現される。また、NN記憶部214を用いることにより「予測モデル記憶手段」が実現される。また、NN破棄部217を用いることにより「破棄手段」が実現される。また、第1の感度計算用操業結果因子導出部802を用いることにより「第1の感度計算用操業結果因子導出手段」が実現される。また、第2の感度計算用操業結果因子導出部803を用いることにより「第2の感度計算用操業結果因子導出手段」が実現される。また、感度導出部804を用いることにより「感度導出手段」が実現される。また、操業影響因子選択用NN学習部805、誤差評価部806、及び操業影響因子選択部807を用いることにより「操業影響因子選択手段」が実現される。
また、以上説明した本発明の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
201 データ取得部
202 データ正規化部
203 SOMパラメータ設定部
204 学習用実績データ選択部
205 勝者SOMニューロン決定部
206 SOM学習部
207 SOM学習終了判定部
208 SOM記憶部
209 勝者実績データ関連部
210 操業結果予測対象データ指定部
211 予測モデル学習用SOMニューロン選択部
212 勝者実績データ抽出部
213 NN学習部
214 NN記憶部
215 NN予測部
216 NN予測結果出力部
217 NN破棄部
601 初期状態
602 勝者SOMニューロン
603 近傍SOMニューロン
Claims (13)
- 製品又は半製品を製造するための操業条件である操業影響因子を入力とし、該操業影響因子の影響を受けて決定される操業結果である操業結果因子を出力とする予測モデルを用いて操業結果因子の予測を行う操業予測装置であって、
過去の操業実績についての前記操業影響因子及び前記操業結果因子の情報を含む複数の実績データから選択された学習用実績データと、該実績データのうちの2つのデータの間を補間する、自己組織化マップを用いて生成された補間データから、自己組織化マップを用いて選択された学習用補間データと、を学習用データとして、前記予測モデルの学習を行い、
前記実績データと、前記操業結果因子を予測する対象である操業に対する前記操業影響因子の情報を含む操業結果予測対象データと、を取得するデータ取得手段と、
前記操業影響因子及び前記操業結果因子の情報が設定されて自己組織化マップに配置されたSOMニューロンであって、前記実績データの値に最も値が近いSOMニューロンを勝者SOMニューロンとして決定することを、前記データ取得手段により取得された実績データについて個別に行う勝者SOMニューロン決定手段と、
前記勝者SOMニューロンの値と、前記自己組織化マップにおいて該勝者SOMニューロンから所定の範囲内に位置しているSOMニューロンである近傍SOMニューロンの値と、を前記実績データの値に近づけるように修正して、前記自己組織化マップを学習することを、前記データ取得手段により取得された実績データについて個別に行うSOM学習手段と、
前記SOM学習手段により学習された後の前記自己組織化マップに配置されているSOMニューロンのうち、前記操業影響因子の値が、前記データ取得手段により取得された操業結果予測対象データと近い所定数のSOMニューロンを、予測モデル学習用SOMニューロンとして選択する予測モデル学習用SOMニューロン選択手段と、
前記データ取得手段により取得された実績データから、前記予測モデル学習用SOMニューロン選択手段により選択された予測モデル学習用SOMニューロンに値が最も近い実績データを、勝者実績データとして決定することを、前記予測モデル学習用SOMニューロンのそれぞれについて個別に行う勝者実績データ関連手段と、
前記SOM学習手段により学習された後の前記自己組織化マップに配置されているSOMニューロンを前記補間データとし、前記予測モデル学習用SOMニューロン選択手段により選択された予測モデル学習用SOMニューロンを前記学習用補間データとし、該予測モデル学習用SOMニューロンに対応する前記勝者実績データを前記学習用実績データとして、前記予測モデルを学習する予測モデル学習手段と、を有することを特徴とする操業予測装置。 - 前記データ取得手段により取得された実績データの数よりも多い数のSOMニューロンを自己組織化マップに配置するSOMパラメータ設定手段を有することを特徴とする請求項1に記載の操業予測装置。
- 前記SOM学習手段は、前記自己組織化マップにおいて前記勝者SOMニューロンに近い位置に配置されているSOMニューロンであるほど、SOMニューロンの値の修正量を多くすると共に、学習の回数が少ないほど、SOMニューロンの値の修正量を多くすることを特徴とする請求項1又は2に記載の操業予測装置。
- 前記データ取得手段により取得された実績データと、操業結果予測対象データとを正規化するデータ正規化手段を有し、
前記データ取得手段により取得された実績データと操業結果予測対象データとして、前記データ正規化手段により正規化された実績データと操業結果予測対象データとが使用されるようにすることを特徴とする請求項1〜3の何れか1項に記載の操業予測装置。 - 前記予測モデル学習手段により学習された後の予測モデルを記憶する予測モデル記憶手段と、
前記予測モデル学習手段により学習された後の予測モデルを使用した前記操業結果因子の予測が1回終了すると、前記予測モデル記憶手段から当該予測モデルを破棄する破棄手段と、を有することを特徴とする請求項1〜4の何れか1項に記載の操業予測装置。 - 複数の前記操業影響因子を入力とし、前記操業結果因子を出力とするニューラルネットワークに、当該複数の操業影響因子の値として特定の値を入力して前記操業結果因子の値を導出する第1の感度計算用操業結果因子導出手段と、
前記ニューラルネットワークに、前記複数の操業影響因子のうちの1つの操業影響因子の値として前記特定の値と異なる値を入力すると共に、残りの操業影響因子の値として前記特定の値を入力して前記操業結果因子の値を導出することを、前記複数の操業影響因子のそれぞれについて行う第2の感度計算用操業結果因子導出手段と、
前記第1の感度計算用操業結果因子導出手段により導出された操業結果因子の値と、前記第2の感度計算用操業結果因子導出手段により導出された操業結果因子の値とに基づいて、前記操業影響因子の感度を、前記複数の操業影響因子のそれぞれについて導出する感度導出手段と、
前記感度導出手段により導出された、前記複数の操業影響因子の感度に基づいて、前記複数の操業影響因子の一部を選択する操業影響因子選択手段と、を有し、
前記勝者SOMニューロン決定手段は、前記操業影響因子選択手段により選択された操業影響因子及び前記操業結果因子の情報が設定されて自己組織化マップに配置されたSOMニューロンであって、前記実績データの値に最も値が近いSOMニューロンを勝者SOMニューロンとして決定することを、前記データ取得手段により取得された実績データについて個別に行うことを特徴とする請求項1〜5の何れか1項に記載の操業予測装置。 - 製品又は半製品を製造するための操業条件である操業影響因子を入力とし、該操業影響因子の影響を受けて決定される操業結果である操業結果因子を出力とする予測モデルを用いて操業結果因子の予測を行う操業予測方法であって、
過去の操業実績についての前記操業影響因子及び前記操業結果因子の情報を含む複数の実績データから選択された学習用実績データと、該実績データのうちの2つのデータの間を補間する、自己組織化マップを用いて生成された補間データから、自己組織化マップを用いて選択された学習用補間データと、を学習用データとして、前記予測モデルの学習を行い、
前記実績データと、前記操業結果因子を予測する対象である操業に対する前記操業影響因子の情報を含む操業結果予測対象データと、を取得するデータ取得工程と、
前記操業影響因子及び前記操業結果因子の情報が設定されて自己組織化マップに配置されたSOMニューロンであって、前記実績データの値に最も値が近いSOMニューロンを勝者SOMニューロンとして決定することを、前記データ取得工程により取得された実績データについて個別に行う勝者SOMニューロン決定工程と、
前記勝者SOMニューロンの値と、前記自己組織化マップにおいて該勝者SOMニューロンから所定の範囲内に位置しているSOMニューロンである近傍SOMニューロンの値と、を前記実績データの値に近づけるように修正して、前記自己組織化マップを学習することを、前記データ取得工程により取得された実績データについて個別に行うSOM学習工程と、
前記SOM学習工程により学習された後の前記自己組織化マップに配置されているSOMニューロンのうち、前記操業影響因子の値が、前記データ取得工程により取得された操業結果予測対象データと近い所定数のSOMニューロンを、予測モデル学習用SOMニューロンとして選択する予測モデル学習用SOMニューロン選択工程と、
前記データ取得工程により取得された実績データから、前記予測モデル学習用SOMニューロン選択工程により選択された予測モデル学習用SOMニューロンに値が最も近い実績データを、勝者実績データとして決定することを、前記予測モデル学習用SOMニューロンのそれぞれについて個別に行う勝者実績データ関連工程と、
前記SOM学習工程により学習された後の前記自己組織化マップに配置されているSOMニューロンを前記補間データとし、前記予測モデル学習用SOMニューロン選択工程により選択された予測モデル学習用SOMニューロンを前記学習用補間データとし、該予測モデル学習用SOMニューロンに対応する前記勝者実績データを前記学習用実績データとして、前記予測モデルを学習する予測モデル学習工程と、を有することを特徴とする操業予測方法。 - 前記データ取得工程により取得された実績データの数よりも多い数のSOMニューロンを自己組織化マップに配置するSOMパラメータ設定工程を有することを特徴とする請求項7に記載の操業予測方法。
- 前記SOM学習工程は、前記自己組織化マップにおいて前記勝者SOMニューロンに近い位置に配置されているSOMニューロンであるほど、SOMニューロンの値の修正量を多くすると共に、学習の回数が少ないほど、SOMニューロンの値の修正量を多くすることを特徴とする請求項7又は8に記載の操業予測方法。
- 前記データ取得工程により取得された実績データと、操業結果予測対象データとを正規化するデータ正規化工程を有し、
前記データ取得工程により取得された実績データと操業結果予測対象データとして、前記データ正規化工程により正規化された実績データと操業結果予測対象データとが使用されるようにすることを特徴とする請求項7〜9の何れか1項に記載の操業予測方法。 - 前記予測モデル学習工程により学習された後の予測モデルを記憶する予測モデル記憶工程と、
前記予測モデル学習工程により学習された後の予測モデルを使用した前記操業結果因子の予測が1回終了すると、前記予測モデル記憶工程から当該予測モデルを破棄する破棄工程と、を有することを特徴とする請求項7〜10の何れか1項に記載の操業予測方法。 - 複数の前記操業影響因子を入力とし、前記操業結果因子を出力とするニューラルネットワークに、当該複数の操業影響因子の値として特定の値を入力して前記操業結果因子の値を導出する第1の感度計算用操業結果因子導出工程と、
前記ニューラルネットワークに、前記複数の操業影響因子のうちの1つの操業影響因子の値として前記特定の値と異なる値を入力すると共に、残りの操業影響因子の値として前記特定の値を入力して前記操業結果因子の値を導出することを、前記複数の操業影響因子のそれぞれについて行う第2の感度計算用操業結果因子導出工程と、
前記第1の感度計算用操業結果因子導出工程により導出された操業結果因子の値と、前記第2の感度計算用操業結果因子導出工程により導出された操業結果因子の値とに基づいて、前記操業影響因子の感度を、前記複数の操業影響因子のそれぞれについて導出する感度導出工程と、
前記感度導出工程により導出された、前記複数の操業影響因子の感度に基づいて、前記複数の操業影響因子の一部を選択する操業影響因子選択工程と、を有し、
前記勝者SOMニューロン決定工程は、前記操業影響因子選択工程により選択された操業影響因子及び前記操業結果因子の情報が設定されて自己組織化マップに配置されたSOMニューロンであって、前記実績データの値に最も値が近いSOMニューロンを勝者SOMニューロンとして決定することを、前記データ取得工程により取得された実績データについて個別に行うことを特徴とする請求項7〜11の何れか1項に記載の操業予測方法。 - 請求項7〜12の何れか1項に記載の操業予測方法の各工程をコンピュータに実行させることを特徴とするコンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012026434A JP5845945B2 (ja) | 2011-04-06 | 2012-02-09 | 操業予測装置、操業予測方法、及びコンピュータプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011084729 | 2011-04-06 | ||
JP2011084729 | 2011-04-06 | ||
JP2012026434A JP5845945B2 (ja) | 2011-04-06 | 2012-02-09 | 操業予測装置、操業予測方法、及びコンピュータプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012226732A JP2012226732A (ja) | 2012-11-15 |
JP5845945B2 true JP5845945B2 (ja) | 2016-01-20 |
Family
ID=47276780
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012026434A Active JP5845945B2 (ja) | 2011-04-06 | 2012-02-09 | 操業予測装置、操業予測方法、及びコンピュータプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5845945B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109947749B (zh) * | 2018-06-27 | 2023-06-20 | 广东工业大学 | 一种具有遗忘学习能力的智能家居操控行为习惯挖掘方法 |
KR102241467B1 (ko) * | 2018-12-18 | 2021-04-15 | 주식회사 포스코 | 연속 주조기, 용강 유동 제어 시스템 및 용강 유동 제어 방법 |
JP6974651B2 (ja) * | 2019-03-15 | 2021-12-01 | 富士フイルム株式会社 | 特徴推定方法、特徴推定装置、プログラム及び記録媒体 |
KR102475851B1 (ko) * | 2020-07-14 | 2022-12-09 | 한국생산기술연구원 | 입출력 데이터 생성 및 변형을 이용한 딥러닝 기반 제품 결함 검사 시스템 및 방법 |
CN114350889B (zh) * | 2021-12-29 | 2023-08-08 | 金川集团股份有限公司 | 用于转炉的炉衬厚度监测方法及炉衬厚度监测系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002091505A (ja) * | 2000-09-14 | 2002-03-29 | Toshiba Corp | モデル同定装置 |
JP2002216134A (ja) * | 2001-01-24 | 2002-08-02 | Atr Adaptive Communications Res Lab | 画像選択システム、画像選択方法および画像選択プログラム |
JP4150322B2 (ja) * | 2003-10-28 | 2008-09-17 | 新日本製鐵株式会社 | 高炉操業における操業監視方法、装置、及びコンピュータプログラム |
-
2012
- 2012-02-09 JP JP2012026434A patent/JP5845945B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012226732A (ja) | 2012-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109870903B (zh) | 参数优化方法、装置以及非瞬时计算机可读取介质 | |
JP5845945B2 (ja) | 操業予測装置、操業予測方法、及びコンピュータプログラム | |
KR101011546B1 (ko) | 예측식 작성장치 및 예측식 작성방법 | |
JP5516390B2 (ja) | 品質予測装置、品質予測方法、プログラムおよびコンピュータ読み取り可能な記録媒体 | |
JP5068637B2 (ja) | 製造プロセスにおける操業と品質の関連解析装置、解析方法、プログラム、及びコンピュータ読み取り可能な記録媒体 | |
JP5604945B2 (ja) | 品質予測装置、品質予測方法、コンピュータプログラム、およびコンピュータ読み取り可能な記録媒体 | |
JP5733229B2 (ja) | 分類器作成装置、分類器作成方法、及びコンピュータプログラム | |
JP7028316B2 (ja) | 金属材料の設計支援方法、予測モデルの生成方法、金属材料の製造方法、及び設計支援装置 | |
JP5434837B2 (ja) | 品質予測装置、品質予測方法、プログラムおよびコンピュータ読み取り可能な記録媒体 | |
JP2007140694A (ja) | 製造プロセスにおける操業と品質の関連解析装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 | |
JP2008112288A (ja) | 予測式作成装置、結果予測装置、品質設計装置、予測式作成方法及び製品の製造方法 | |
CN110059528B (zh) | 物体间关系识别设备、学习模型、识别方法和计算机可读介质 | |
JP5462750B2 (ja) | 溶鋼温度管理方法、装置及びプログラム | |
JP4365600B2 (ja) | 鋼材の製品品質設計装置及び鋼材製品の製造方法 | |
JP5816148B2 (ja) | 出力値予測装置、出力値予測方法およびそのプログラム | |
JP5375507B2 (ja) | 品質予測装置、品質予測方法、プログラムおよびコンピュータ読み取り可能な記録媒体 | |
JP4653547B2 (ja) | 製造プロセスにおける操業と品質の関連解析装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記録媒体 | |
JP7325607B2 (ja) | 積層造形経路生成装置、積層造形経路生成方法、および機械学習装置 | |
JP3875875B2 (ja) | 製造プロセスにおける操業分析装置、方法、コンピュータプログラム、及びコンピュータ読み取り可能な記憶媒体 | |
KR102149053B1 (ko) | 성분 예측 모델링 시스템 및 방법 | |
JP2003268428A (ja) | 鋼材の製品品質制御装置 | |
JP5488140B2 (ja) | 品質予測装置、品質予測方法、コンピュータプログラム、およびコンピュータ読み取り可能な記録媒体 | |
JP2007257621A (ja) | 最適品質設計支援装置 | |
JP2004277835A (ja) | 鋼材の製品受注支援システム | |
CN116414094A (zh) | 一种焊接装配智能调度方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150407 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20151027 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20151109 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5845945 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |