JPH06262234A - プラント制御装置及び方法 - Google Patents

プラント制御装置及び方法

Info

Publication number
JPH06262234A
JPH06262234A JP5051610A JP5161093A JPH06262234A JP H06262234 A JPH06262234 A JP H06262234A JP 5051610 A JP5051610 A JP 5051610A JP 5161093 A JP5161093 A JP 5161093A JP H06262234 A JPH06262234 A JP H06262234A
Authority
JP
Japan
Prior art keywords
neural network
basic element
learning
shape
pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5051610A
Other languages
English (en)
Other versions
JP3308630B2 (ja
Inventor
Takashi Okada
▲隆▼ 岡田
Yasuo Morooka
泰男 諸岡
Yasunori Katayama
恭紀 片山
Masaaki Nakajima
正明 中島
Satoru Hattori
哲 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Control Systems Inc
Original Assignee
Hitachi Ltd
Hitachi Information and Control Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Information and Control Systems Inc filed Critical Hitachi Ltd
Priority to JP05161093A priority Critical patent/JP3308630B2/ja
Publication of JPH06262234A publication Critical patent/JPH06262234A/ja
Application granted granted Critical
Publication of JP3308630B2 publication Critical patent/JP3308630B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Control Of Metal Rolling (AREA)

Abstract

(57)【要約】 【目的】本発明は、圧延機の形状制御を高精度に行う方
法を提供することにある。 【構成】学習用データ記憶部1に存在する基本要素パタ
ーンを用いて線形関係を関数近似部2により抽出し、荷
重係数設定部3によって、学習データ群1に存在する線
形関係をニューラルネットワーク7に予め実現してから
ニューラルネットワーク7を学習させることで高精度に
形状を認識させる。 【効果】形状パターンに存在する線形関係をニューラル
ネットワークの荷重係数初期値として設定するため、最
適なパターン認識を実現することができる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、検出された形状データ
に応じて制御を行う圧延機形状制御装置及び方法に関す
る。
【0002】
【従来の技術】圧延機の形状制御にニューラルネットワ
ークを適用した例としては、特開平4−127908号の「圧
延機における形状制御方法及び制御装置」がある。この
場合、ニューラルネットワークは、検出される圧延材の
幅方向形状分布を形状パターンとして捉え、典型的な圧
延材の幅方向形状パターンをその検出された形状パター
ンから修正可能な形状パターンとして抽出する役割を持
つ。しかし、そこで行われているニューラルネットワー
クの学習は、例えば、ニューロコンピュータ(中野肇監
修 技術評論社)第1編の第2章「バックプロパゲーシ
ョン」に記載されているように、適当に中間層のユニッ
ト数を設定し、ネットワーク内部のパラメータであるニ
ューロン間の荷重係数の初期値を乱数により設定し、最
急傾斜法等に基づく学習則で前記荷重係数を修正する方
法である。そのためニューラルネットワークを決定する
ためには、中間層ニューロン数を変更したり、ニューラ
ルネットワークの荷重係数初期値を変更するという試行
錯誤を繰り返し行う必要があった。
【0003】
【発明が解決しようとする課題】ニューラルネットワー
クには、学習データ間の関係を満足するような局所最適
点が多数存在するため、最急傾斜法に基づく荷重係数の
修正では荷重係数の初期値に依存した局所最適点の荷重
係数に収斂してしまうので、必ずしも最適な荷重係数に
収斂するとは限らない。しかし圧延機の形状制御におけ
る形状パターンについては、形状パターンの大きさ自体
が微少であるため形状パターンは複数の基本要素パター
ン線形和で近似的に表現できるという特徴がある。とこ
ろが、上記従来技術では、このような形状パターンと基
本要素パターン間の関係に関するこのような知識が有効
に利用されていないため、特に学習用のデータが少ない
場合には、検出される圧延材形状パターンから基本要素
パターンをうまく抽出できないという問題があった。
【0004】本発明の目的は、バックプロパゲーション
などの最急傾斜法に基づく学習則でニューラルネットワ
ークの荷重係数を修正してデータ間の関係を実現する
際、予め設定した圧延材特有の典型的な形状パターンを
表現した基本要素パターンと検出される形状パターンと
の近似的な線形関係を利用することで、学習用データが
少ない場合でも形状パターンから基本要素パターンを抽
出できる最適なニューラルネットワークを実現する装置
及び方法を提供することにある。
【0005】
【課題を解決するための手段】本発明は、上記目的を達
成するために、圧延材の幅方向の典型的な形状パターン
からなる基本要素パターン記憶部,形状パターンと基本
要素パターンの関係を回帰分析により近似する関数近似
部,関数近似部で求めたパラメータを用いてニューラル
ネットワークの荷重係数の初期値を決定する荷重係数設
定部,検出される形状パターンとその形状パターンに含
まれる基本要素パターンとの成分比からなる学習用デー
タ記憶部,関数近似部の結果を利用して、学習用データ
記憶部からデータを選択する近似度判定部,近似度判定
部によりニューラルネットワークの荷重係数を修正する
ためのデータを蓄えた修正学習用データ記憶部を設け
る。
【0006】
【作用】圧延材の典型的な形状パターンからなる基本要
素パターン記憶部のデータを用いて、検出される圧延材
の幅方向形状パターンと基本要素パターン間の線形関係
を近似的に関数近似部において実現し、前記関数近似部
が表現した近似関数の係数パラメータを荷重係数設定部
がニューラルネットワークの荷重係数の初期値として設
定する。それにより近似度判定部が選出した修正学習用
データ記憶部の形状パターンを用いて、ニューラルネッ
トワークを学習させる。
【0007】
【実施例】以下、本発明の実施例を図1に示す多段ロー
ル圧延機の圧延材幅方向の板厚分布(形状)の制御に適
用した場合について述べる。圧延材の幅方向板厚分布
は、複数のセンサからなる形状検出器12により多点で
検出され、その多点で検出された検出量の包絡線を圧延
材の形状パターン(以下形状パターンと呼称)としてと
らえる。このとき、各センサの出力値をニューラルネッ
トワーク7の入力層の各ユニットに入力する。そして、
入力された圧延材の形状パターンに含まれている各基本
要素パターン(操作ルールが決まっている対象に特有な
基本形状パターン)の成分量をニューラルネットワーク
7が求め、操作量演算部11でアクチュエータ10への
操作量を求めて制御する。この制御構成におけるニュー
ラルネットワーク7は、検出された圧延材の形状パター
ンから予め設定した基本要素パターン成分を抽出する役
割をもつ。このとき検出される圧延材の形状パターン
は、基本要素パターンの線形和で近似できるとする。本
発明を用いたニューラルネットワークの学習は、以下の
ように行われる。
【0008】まず形状検出器12により検出された圧延
材の形状パターンは、基本要素パターン記憶部8によ
り、基本要素パターンとして特有の板厚分布パターンを
抽出され、記憶される。これらの基本要素パターンは関
数近似部2に送られる。圧延材の形状パターンは、基本
要素パターンの線形和で表現されるとしたので、関数近
似部2では、形状パターンと基本要素パターン間の関係
を後述する回帰近似モデルで近似させる。
【0009】関数近似部2は、近似させた回帰近似モデ
ルのパラメータを荷重係数設定部3に出力し、荷重係数
設定部3は回帰近似モデルで得られた関係をニューラル
ネットワーク7に対応した荷重係数に変換する。
【0010】一方、形状検出器12により検出された圧
延材の形状パターンに対して、入力部13からオペレー
タにより、基本要素パターン記憶部8に記憶された各基
本要素パターンの成分比が入力され、形状パターンと共
に学習用データ記憶部1に蓄積される。そして近似度判
定部4では、関数近似部2から送られてきた回帰近似モ
デルを用いて、学習用データ記憶部1に記憶されている
各基本要素パターンの成分比を推定する。この成分比と
予め学習用データ記憶部1に設定した各基本要素パター
ンの成分比との差が判定基準値以上である場合、その形
状パターンをニューラルネットワーク7の修正用の学習
データとして修正学習用データ記憶部5に記憶させる。
【0011】荷重係数設定部3で求めたニューラルネッ
トワーク7に対応した荷重係数は、学習制御部6に出力
される。このとき各基本要素パターンの線形和で完全に
表現される圧延材の形状パターンならば、各基本要素パ
ターンの割合を出力できる。もしも基本要素パターンの
線形和だけでは表現できなければ、学習制御部6は、荷
重係数設定部3から送られたきた荷重係数を初期値とし
て、学習用データ記憶部1と修正学習用データ記憶部5
から送られてくる圧延材の形状パターンを用いてバック
プロパゲーションのような最急傾斜法による学習を行
い、ニューラルネットワーク7の荷重係数を修正する。
【0012】図6に学習用データ記憶部1の一例を示
す。検出器12からの圧延材の幅方向形状分布が形状パ
ターンとして学習用データ記憶部1に送られる。また、
その検出された形状パターンに存在する基本要素パター
ンの成分比は入力部13から学習用データ記憶部1に入
力される。入力されたその成分比は基本要素パターン成
分比記憶部102に送られ、形状パターンは、その形状
パターンにおける基本要素パターンの成分比と対応させ
て形状パターン記憶部101に記憶される。
【0013】図2に関数近似部2の一例を示す。関数近
似部2には、基本要素パターン記憶部8から基本要素パ
ターンが入力される。関数近似部2の内部では、この基
本要素パターンを回帰近似モデル202に送り、基本要
素パターンをベクトル表示したときの次数と基本要素パ
ターンの数から近似モデルの構造を決定する。また基本
要素パターンは、モデルパラメータ設定部201にも入
力される。モデルパラメータ設定部201の内部では、
以下に示すように回帰近似モデル202のパラメータが
設定される。
【0014】圧延材の形状パターンが基本要素パターン
記憶部8の基本要素パターンの線形和で表現されると考
えると、m個のセンサによる圧延材の形状パターンの出
力値Xとその形状パターンに含まれているn個の各基本
要素パターンの割合Yとの近似的な線形関係は数1に示
す回帰モデルで表現される。
【0015】
【数1】
【0016】但し、X1〜Xmは圧延材の形状パターン
で、Xiは幅方向に分布するi番目のセンサの出力値で
ある。またY1〜Ynは、形状パターンに含まれる基本
要素パターンの割合で、Yiは、第i番目の基本要素パ
ターンの割合である。さらにnvi1〜nvimは第i番目
の基本要素パターンで、iは1からnまでの自然数であ
る。
【0017】
【数2】
【0018】
【数3】
【0019】
【数4】 wik=nvik−pi …(数4)
【0020】
【数5】
【0021】ここでPiは各基本要素パターンの分布値
の平均である。
【0022】このように、回帰近似モデル202内部で
は、基本要素パターン記憶部1における基本要素パター
ンの分布量と基本要素パターンの数によってモデルの大
きさが決定され、数1のようなモデル構造が構築され
る。モデルパラメータ設定部201では、回帰近似モデ
ル202の内部のパラメータwik、及びwbijを設定す
る。
【0023】ここで数1の意味を述べる。先ずwikは、
第i番目の基本パターンのk番目の分布値(厳密には、
平均値Pi からの偏差値)を表している。従ってW・X
の演算は、圧延材の形状パターンXと基本要素パターン
nvi との相関を計算していることになる。また、Wb
は各基本要素パターン間の相関関係を表している。従っ
て、Wb・W・xは、圧延材の形状パターンと基本要素
パターンの相関結果をもとに形状パターンに含まれる割
合を求めている。
【0024】図3に荷重係数設定部3の詳細図を示す。
荷重係数設定部3は変換関数選定部301とパラメータ
変換部302から構成されており、変換関数選定部30
1には、予めニューラルネットワーク7の内部演算で用
いられる非線形変換関数である次の数6で表現したシグ
モイド関数が記憶されている。
【0025】
【数6】
【0026】ここでuは入力、yは出力、km,ktは
パラメータである。
【0027】関数近似部2から回帰近似モデルのパラメ
ータがパラメータ変換部302に入力される。また学習
制御部6からニューラルネットワーク7で用いられるシ
グモイド関数のパラメータ(km,kt)が、変換関数
設定部301に入力され、シグモイド関数の逆関数が決
定される。その逆関数と関数近似部2で求めた回帰近似
モデルのパラメータ(wbij,wjk)は、パラメータ変
換部302に入力される。そして回帰近似モデルのパラ
メータ(wbij,wjk)は、変換関数選定部301から
の逆関数に基づいて変換され、学習制御部6に出力され
る。このように回帰近似モデルとニューラルネットワー
クを対応付けて考える。
【0028】またパラメータ変換は次のように行う。関
数近似部2では数1で示されたように、基本要素パター
ンにより入・出力間の関係は2つの線形写像の合成で表
現できる。このときニューラルネットワーク7の構造も
入力層−中間層間の積和演算と中間層−出力層間の積和
演算の2つの変換から成立していることが分かる。そこ
で回帰モデルにおけるパラメータwによる変換を入力層
−中間層間の変換に対応させ、回帰モデルにおけるパラ
メータwbによる変換は中間層−出力層間の変換に対応
させる。すなわちwikがニューラルネットワークの入力
層−中間層間の荷重係数に対応し、wbijが中間層−出
力層間の荷重係数に対応する。
【0029】さらにニューラルネットワーク7の構造も
決定される。つまり入力層ユニット数は、圧延材の幅方
向に分布するセンサの数(=m)と同じであり、中間層
及び出力層のユニット数は、基本要素パターンの数(=
n)と同じになる。
【0030】次に、パラメータ変換部302内部で行わ
れる回帰近似モデルのパラメータをニューラルネットワ
ークの荷重係数に変換する処理について説明する。ニュ
ーラルネットワーク7に用いられるシグモイド関数は、
uの零近傍で数7のように近似的に表現できる。パラメ
ータKLは、uの零近傍における数6のシグモイド関数
を一次式で最小二乗近似したときの傾きである。
【0031】
【数7】 y=KL×u …(数7) 従って、ニューラルネットワーク7の中間層及び出力層
の入・出力関係を考えると、近似的に次の数8のように
なる。
【0032】
【数8】
【0033】ここでuk は入力層に入力される入力パタ
ーン、Wn1jkはその入力に対する中間層荷重係数、y
cjは、中間層の出力、uk は出力層に入力される入力、
Wn2ijはその入力に対する出力層荷重係数、yoiは出
力層の出力である。数8は、回帰近似モデルの構造と同
じである。従ってニューラルネットワークの荷重係数W
n1jk,Wn2ijと、回帰近似モデルのパラメータ(w
jk,wbij)との関係は、次の数9のように表現でき
る。
【0034】
【数9】 wjk=KL×Wn1jk wbij=KL×Wn2ij …(数9) 従ってパラメータ変換部302の内部では、ニューラル
ネットワーク7の入力層,中間層及び出力層のユニット
数とともに、ニューラルネットワーク7に対応した荷重
係数を次の数10で算出し、学習制御部6に出力する。
そして、学習制御部6は、ニューラルネットワーク7の
入力層,中間層及び出力層のユニット数とともに、この
計算で求められた荷重係数をニューラルネットワーク7
の荷重係数初期値としてニューラルネットワーク7に設
定する。なお数10の変換は、シグモイド関数の近似
式、数7の逆変換である。
【0035】
【数10】
【0036】図4に近似度判定部4の詳細図を示す。近
似度判定部4は、関数近似部2の構成要素である回帰近
似モデル202と同じ近似モデルを有する回帰近似モデ
ル401,近似度演算部402及び判定部403からな
る。関数近似部2からの回帰近似モデルパラメータは、
回帰近似モデル401に入力され、関数近似部2で求め
た基本要素パターンと形状パターンとの線形近似関係を
実現させる。回帰近似モデル401が実現されると、学
習用データ記憶部1から形状パターン(入力データ)を
回帰近似モデル401に入力し、圧延材の形状パターン
に含まれる各基本要素パターンの成分比の推定値を算出
する。回帰近似モデル401で算出された推定値と、予
め熟練者などによって学習用データ記憶部1に設定され
ている各基本要素パターンの成分比の初期値とは、近似
度演算部402に入力され、推定値と初期値との誤差を
算出する。この推定誤差は、各基本要素パターンに対す
る成分比の推定誤差の2乗和から算出する。
【0037】近似度演算部402は、その推定誤差を判
定部403に出力する。判定部403では、近似度演算部
402から送られた推定誤差が予め設定しておいた許容
推定誤差を超える場合、回帰モデルでは十分近似できな
いと判断し、その形状パターンを修正学習用データ記憶
部5に送る。こうして回帰モデルで十分に近似できなか
ったデータは、修正学習用データ記憶部5に記憶させて
おく。
【0038】図5に学習制御部6及びニューラルネット
ワーク7の関係を表す詳細図を示す。学習制御部6は、
データ記憶部601,荷重係数記憶部602,学習実行
部603及び切換部604から構成される。学習用デー
タ記憶部1と修正学習用データ記憶部5から出力される
形状パターンと、そこに含まれる各基本要素パターンの
成分比は、データ記憶部601に記憶される。荷重係数
設定部3で求めた荷重係数は、学習制御部6の内部の荷
重係数記憶部602に荷重係数初期値として記憶され
る。また荷重係数設定部3は、算出した荷重係数初期値
に応じた入力層,中間層及び出力層のユニット数を学習
実行部603に出力する。学習実行部603は、ニュー
ラルネットワーク7の中間層のユニット数及び内部演算
で用いるシグモイド関数のパラメータ(km,kt)を
ニューラルネットワーク7に出力し、ニューラルネット
ワーク7を決定する。
【0039】次にニューラルネットワーク7の学習方法
について説明する。ニューラルネットワーク7が決定さ
れると、切換部604は荷重係数記憶部602とニュー
ラルネットワーク7とを接続し、荷重係数記憶部602
の荷重係数がニューラルネットワーク7に初期値として
出力される。次に切換部604が切り換わり、学習実行
部603とニューラルネットワーク7が接続され、学習
が開始される。
【0040】学習実行部603は、データ記憶部601
から送られてくるデータと、ニューラルネットワーク7
の出力値とを比較し、荷重係数記憶部602から送られ
てきた荷重係数をバックプロパゲーションのような学習
則に従って修正する。修正された荷重係数は、切換部6
04を経由してニューラルネットワーク7に送られ、ニ
ューラルネットワーク7の荷重係数を変更する。なおニ
ューラルネットワーク7の修正のために学習用データ記
憶部1と修正学習用データ記憶部5の両方から送られて
きたデータを用いて学習を行うとき、修正学習用データ
記憶部5のデータを優先的に学習に用いるようにする。
ニューラルネットワーク7の初期値は線形関係が実現さ
れているため、非線形性が存在し十分に線形モデルでは
近似できない可能性があるからである。従って修正学習
用データ記憶部5からのデータをより頻繁にニューラル
ネットワーク7に教示する。
【0041】図7に、本発明で設計したニューラルネッ
トワークと、乱数で荷重係数の初期値を設定した従来の
ニューラルネットワークとを比較した結果を示す。シミ
ュレーションには、基本要素パターンf1,f2,f3
ランダムな割合(比率=α:β:γ)で合成し、更に雑
音を加えて形状パターンとした。なお成分比推定誤差
は、各ニューラルネットワークで求めた各基本要素パタ
ーンの成分比と実際に各基本要素パターンを合成したと
きの成分比との差の二乗和とする。また形状パターンの
大きさに対する雑音の比率の最大値を雑音レベルとす
る。
【0042】図7の結果から従来のニューラルネットワ
ークより本発明の方が、全雑音レベルにおいて成分比推
定誤差が低減化できている。このことは検出された形状
パターンから各基本要素パターンの成分をより正確に求
められることを示している。さらに本発明は、検出パタ
ーンに含まれる雑音の比率の大きさに対して成分比推定
誤差は変化しにくく、雑音に対して強いという効果もあ
る。
【0043】また図8にニューラルネットワークの入力
層−中間層間の荷重係数について、従来例と本発明との
比較を示す。図8において、黒い四角は回帰近似モデル
から設定された荷重係数値で、基本要素パターンf1
2,f3 を線形和で表現した幅方向形状パターンから
各分布値に対応する数値が設定される。○は、回帰近似
モデルから設定された荷重係数を初期値にして学習して
得られた荷重係数である。この場合の荷重係数は、基本
要素パターンの非線形和も考慮され、雑音に対して低感
度になるように荷重係数が修正されている。しかも回帰
近似モデルから設定された荷重係数に似たような値で収
斂しており、基本的な線形特性を残したままであること
が分かる。このことは入力層−中間層間の演算が、入力
される形状パターンと基本要素パターンとの相関を有し
たままで計算できることを意味する。
【0044】一方△は、従来のニューラルネットワーク
で、初期値を乱数で設定した荷重係数で、回帰近似モデ
ルと類似の荷重係数だけでなく、全く異なる荷重係数も
あるため、荷重係数を修正したいときの目安を捕らえに
くい問題がある。
【0045】このように本発明は、ニューラルネットワ
ーク内部の状態が理解しやすくなるから、誤った認識を
したときにニューラルネットワークの問題点を分析でき
るという効果もある。
【0046】図10のフローチャートは、今まで述べて
きた本発明のニューラルネットワークの設計方法であ
る。先ずstep1において圧延材の幅方向形状パターンが
検出される。これらの検出された形状パターンに対して
特徴的な基本要素パターンがstep2.1において入力さ
れる。step3.1では、step2.1 で入力された基本要
素パターンを用いて回帰近似モデルを作成する。step
4.1では、step3.1で作成した回帰近似モデルのパラ
メータをニューラルネットワークの荷重係数初期値に変
換する。step5.1 では、ニューラルネットワークの中
間層ユニット数とシグモイド関数のパラメータを決定し
て、step4.1 で求めた荷重係数をニューラルネットワ
ークの初期値として設定する。
【0047】一方、step1で検出された形状パターン
は、step2.2 において学習データとして収集され、st
ep2.1 で入力した各基本要素パターンが形状パターン
にどのような成分比で含まれるかを入力する。次に、st
ep3.2では、step3.1で作成した回帰近似モデルを用
いて、step2.2 で収集した形状パターンに含まれる基
本要素パターンの成分比を推定する。つづいて、step
4.2では、step3.2で推定した結果とstep2.2 で入
力した成分比と比較し、その差が大きい形状パターンを
修正学習用データとして登録する。そしてstep5.2で
は、step4.2で判定された形状パターンとそのパター
ンに含まれる基本要素パターンの成分比の組合せをニュ
ーラルネットワーク7の荷重係数を修正するための学習
データとして修正学習用データ記憶部5に設定する。st
ep6では、step5.1 で決定されたニューラルネットワ
ークとstep5.2 で収集した修正用学習データ(形状デ
ータ)及びstep2.2 で収集した学習データを用いて、
バックプロパゲーションの様な学習則でニューラルネッ
トワークの荷重係数を修正する。このとき、データの教
示の方法は、修正学習用データ記憶部5のパターンを繰
り返しニューラルネットワーク7に教示して荷重係数を
修正する。そして、修正学習用データ記憶部5のパター
ンを数回繰り返し学習した後、修正学習用データ記憶部
5の学習回数より少ない回数だけ学習用データ記憶部1
のパターンを学習させる。その後、再び修正学習用デー
タ記憶部5のパターンを繰り返し学習させる。以上の操
作を繰り返すことで、十分に近似できなかった形状パタ
ーン(修正学習用データ記憶部5のパターン)に重みを
かけて学習させる。
【0048】図9は、1つの新たな基本要素パターンを
形状パターンに追加するときのニューラルネットワーク
7の変更の方法を示した図である。新たに基本要素パタ
ーンが追加されると、先ず基本要素パターンの成分比を
出力するためのユニット700−2が出力層に一つ追加さ
れる。さらに入力層−中間層間で計算する基本要素パタ
ーンと入力される形状パターンとの相関を中間層で出力
するため、ユニット700−1が中間層に一つ追加され
る。基本パターンを多数追加する場合は、この操作を繰
り返せば良い。
【0049】
【発明の効果】本発明によれば、検出される形状パター
ンと基本要素パターンとの相関関係を回帰モデルを用い
て予め近似し、その結果からニューラルネットワークの
荷重係数の初期値を設定して設計するため、形状パター
ンと基本要素パターンの間の近似的な関係をニューラル
ネットワークに実現できるので、検出される形状パター
ンに含まれる基本要素パターン成分比をより最適に実現
するニューラルネットワークに収斂させることができ
る。またニューラルネットワーク内部の状態が理解しや
すくなり、誤った認識をしたときにニューラルネットワ
ークの問題点を分析できるという効果もある。
【図面の簡単な説明】
【図1】本発明の一実施例を表す構成図。
【図2】関数近似部を表す図。
【図3】荷重係数設定部を表す図。
【図4】近似度判定部を表す図。
【図5】学習制御部とニューラルネットワークを表す
図。
【図6】学習用記憶部を表す図。
【図7】本発明を用いたシミュレーション結果。
【図8】本発明を用いた場合のニューラルネットワーク
の荷重係数を表す説明図。
【図9】本発明を用いた場合のニューラルネットワーク
構造の説明図。
【図10】本発明のニューラルネットワーク設計方法の
フローチャート図である。
【符号の説明】
1…学習用記憶部、2…関数近似部、3…荷重係数設定
部、4…近似度判定部、5…修正学習用データ記憶部、
6…学習制御部、7…ニューラルネットワーク、8…基
本要素パターン記憶部。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 片山 恭紀 茨城県日立市大みか町五丁目2番1号 株 式会社日立情報制御システム内 (72)発明者 中島 正明 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内 (72)発明者 服部 哲 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】圧延材の板厚形状データを検出する形状検
    出器と、 前記形状データの基本要素パターンを記憶する基本要素
    パターン記憶手段と、 前記形状データに対する前記基本要素パターンの成分割
    合を多項式で近似する関数近似手段と、 前記関数近似手段の結果からニューラルネットワークの
    荷重係数の初期値を算出する荷重係数設定手段と、 前記形状データと前記成分割合とを記憶する学習用デー
    タ記憶手段と、 前記関数近似手段の結果と、前記学習用データ記憶手段
    からのデータとの比較から近似度を判定する近似度判定
    手段と、 前記近似度判定手段からの判定が許容誤差外のときは修
    正データとして前記形状データ及び、その形状データに
    含まれる基本要素パターンとの成分割合とを記憶する修
    正学習用データ記憶手段と、 前記荷重係数設定手段からの出力と前記学習用データ記
    憶手段及び前記修正学習用データ記憶手段からの出力と
    からニューラルネットワークの学習を行う学習制御手段
    と、を備えていることを特徴とするプラント制御装置。
  2. 【請求項2】形状検出器によって検出された圧延材の板
    厚形状データから前記形状データに対する基本要素パタ
    ーンの成分割合を関数近似して、前記近似結果からニュ
    ーラルネットワークの荷重係数の初期値を算出するとと
    もに、前記形状データに含まれる基本要素パターンとの
    成分割合と前記形状データとを学習データとして入力
    し、前記関数近似結果の成分割合と前記学習データの成
    分割合との比較から近似度を判定し、前記判定の結果が
    許容誤差外のときは前記形状データを修正学習用データ
    としてニューラルネットワークの学習を行ってプラント
    を制御するプラント制御方法。
  3. 【請求項3】請求項1において、前記関数近似手段に回
    帰分析手段を用いることを特徴とするプラント制御装
    置。
  4. 【請求項4】請求項1において、前記近似度判定手段か
    らの判定は、前記成分割合の差の自乗とすることを特徴
    とするプラント制御装置。
JP05161093A 1993-03-12 1993-03-12 プラント制御装置及び方法 Expired - Fee Related JP3308630B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05161093A JP3308630B2 (ja) 1993-03-12 1993-03-12 プラント制御装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05161093A JP3308630B2 (ja) 1993-03-12 1993-03-12 プラント制御装置及び方法

Publications (2)

Publication Number Publication Date
JPH06262234A true JPH06262234A (ja) 1994-09-20
JP3308630B2 JP3308630B2 (ja) 2002-07-29

Family

ID=12891677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05161093A Expired - Fee Related JP3308630B2 (ja) 1993-03-12 1993-03-12 プラント制御装置及び方法

Country Status (1)

Country Link
JP (1) JP3308630B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100384121B1 (ko) * 1997-03-31 2003-12-24 주식회사 포스코 신경회로망을 이용한 냉간압연강판의 형상제어방법
JP2016014943A (ja) * 2014-07-01 2016-01-28 株式会社日立製作所 情報処理装置およびパラメータ算出方法
JP2019082900A (ja) * 2017-10-31 2019-05-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2022143341A (ja) * 2021-03-17 2022-10-03 横河電機株式会社 コントローラ、制御方法及び制御プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6813416B2 (ja) * 2017-04-10 2021-01-13 株式会社日立製作所 プラント制御装置およびその制御方法、圧延機制御装置およびその制御方法並びにプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100384121B1 (ko) * 1997-03-31 2003-12-24 주식회사 포스코 신경회로망을 이용한 냉간압연강판의 형상제어방법
JP2016014943A (ja) * 2014-07-01 2016-01-28 株式会社日立製作所 情報処理装置およびパラメータ算出方法
JP2019082900A (ja) * 2017-10-31 2019-05-30 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理方法、プログラム
JP2022143341A (ja) * 2021-03-17 2022-10-03 横河電機株式会社 コントローラ、制御方法及び制御プログラム

Also Published As

Publication number Publication date
JP3308630B2 (ja) 2002-07-29

Similar Documents

Publication Publication Date Title
KR920702784A (ko) 뉴로-퍼지 융합 데이타처리 시스템
CN113870230B (zh) 一种基于混合监督学习的表面异常检测方法
CN113065431B (zh) 一种基于隐马尔可夫模型和循环神经网络的人体违规行为预测方法
CN112561881A (zh) 基于评价模型的红外图像自适应数据增强方法
JPH06262234A (ja) プラント制御装置及び方法
JP2804161B2 (ja) センジマーミルの形状制御方法および装置
JPH07282168A (ja) カオスリカレント神経回路網とその学習方法
Verboven et al. Autonomous modal parameter estimation based on a statistical frequency domain maximum likelihood approach
JPH07121498A (ja) ニューラルネットワーク構築方法
Lin et al. Neurofuzzy-model-following control of MIMO nonlinear systems
JP2677964B2 (ja) 圧延機の形状制御初期設定方法
JPH05101028A (ja) 複数特徴量の統合判定方法
Wouwer et al. On the use of simultaneous perturbation stochastic approximation for neural network training
Laukonen et al. Fuzzy systems for function approximation with applications to failure estimation
JPH11232244A (ja) ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置
EP0450521B1 (en) A learning method for a data processing system
JPH0233687A (ja) マルチフォント文字認識用ニューラルネットワーク学習方法
JPH09138786A (ja) ニューラルネットワークの学習装置
JP2845077B2 (ja) 薄板圧延の板形状制御法
JP2639028B2 (ja) 神経回路の学習装置および学習方法
JP3412700B2 (ja) 神経回路網型パターン学習方法およびパターン処理装置
JPH06175998A (ja) 時系列予測方法
Chen et al. Adaptive control of a class of nonlinear systems using neural networks
JPH06222710A (ja) 運転訓練評価装置
JPH0652317A (ja) パターン認識装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees