JP3308630B2 - Plant control apparatus and method - Google Patents

Plant control apparatus and method

Info

Publication number
JP3308630B2
JP3308630B2 JP05161093A JP5161093A JP3308630B2 JP 3308630 B2 JP3308630 B2 JP 3308630B2 JP 05161093 A JP05161093 A JP 05161093A JP 5161093 A JP5161093 A JP 5161093A JP 3308630 B2 JP3308630 B2 JP 3308630B2
Authority
JP
Japan
Prior art keywords
basic element
neural network
approximation
learning
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP05161093A
Other languages
Japanese (ja)
Other versions
JPH06262234A (en
Inventor
▲隆▼ 岡田
泰男 諸岡
恭紀 片山
正明 中島
哲 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP05161093A priority Critical patent/JP3308630B2/en
Publication of JPH06262234A publication Critical patent/JPH06262234A/en
Application granted granted Critical
Publication of JP3308630B2 publication Critical patent/JP3308630B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)
  • Control Of Metal Rolling (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、検出された形状データ
に応じて制御を行う圧延機形状制御装置及び方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a rolling mill shape control device and method for performing control in accordance with detected shape data.

【0002】[0002]

【従来の技術】圧延機の形状制御にニューラルネットワ
ークを適用した例としては、特開平4−127908号の「圧
延機における形状制御方法及び制御装置」がある。この
場合、ニューラルネットワークは、検出される圧延材の
幅方向形状分布を形状パターンとして捉え、典型的な圧
延材の幅方向形状パターンをその検出された形状パター
ンから修正可能な形状パターンとして抽出する役割を持
つ。しかし、そこで行われているニューラルネットワー
クの学習は、例えば、ニューロコンピュータ(中野肇監
修 技術評論社)第1編の第2章「バックプロパゲーシ
ョン」に記載されているように、適当に中間層のユニッ
ト数を設定し、ネットワーク内部のパラメータであるニ
ューロン間の荷重係数の初期値を乱数により設定し、最
急傾斜法等に基づく学習則で前記荷重係数を修正する方
法である。そのためニューラルネットワークを決定する
ためには、中間層ニューロン数を変更したり、ニューラ
ルネットワークの荷重係数初期値を変更するという試行
錯誤を繰り返し行う必要があった。
2. Description of the Related Art An example of applying a neural network to shape control of a rolling mill is disclosed in Japanese Patent Application Laid-Open No. 4-127908, entitled "Method and Control Apparatus for Rolling Mill." In this case, the neural network captures the detected widthwise shape distribution of the rolled material as a shape pattern, and extracts a widthwise shape pattern of a typical rolled material as a correctable shape pattern from the detected shape pattern. have. However, the learning of the neural network performed there is, for example, as described in Chapter 2 “Backpropagation” of the first volume of the Neurocomputer (Supervised by Hajime Nakano). In this method, the number of units is set, the initial value of the weighting factor between neurons, which is a parameter inside the network, is set by a random number, and the weighting factor is corrected by a learning rule based on the steepest gradient method or the like. Therefore, in order to determine the neural network, it was necessary to repeatedly perform trial and error to change the number of hidden neurons and to change the initial value of the weight coefficient of the neural network.

【0003】[0003]

【発明が解決しようとする課題】ニューラルネットワー
クには、学習データ間の関係を満足するような局所最適
点が多数存在するため、最急傾斜法に基づく荷重係数の
修正では荷重係数の初期値に依存した局所最適点の荷重
係数に収斂してしまうので、必ずしも最適な荷重係数に
収斂するとは限らない。しかし圧延機の形状制御におけ
る形状パターンについては、形状パターンの大きさ自体
が微少であるため形状パターンは複数の基本要素パター
ン線形和で近似的に表現できるという特徴がある。とこ
ろが、上記従来技術では、このような形状パターンと基
本要素パターン間の関係に関するこのような知識が有効
に利用されていないため、特に学習用のデータが少ない
場合には、検出される圧延材形状パターンから基本要素
パターンをうまく抽出できないという問題があった。
Since the neural network has many local optimum points that satisfy the relationship between the learning data, the correction of the weighting factor based on the steepest slope method requires the initial value of the weighting factor to be changed. Since it converges on the load coefficient of the dependent local optimum point, it does not always converge on the optimum load coefficient. However, the shape pattern in the shape control of the rolling mill has a feature that the shape pattern can be approximately expressed by a linear sum of a plurality of basic element patterns because the size itself of the shape pattern is very small. However, in the above-mentioned prior art, since such knowledge on the relationship between such a shape pattern and a basic element pattern is not effectively used, especially when there is little data for learning, the detected rolled material shape is There was a problem that a basic element pattern could not be successfully extracted from a pattern.

【0004】本発明の目的は、バックプロパゲーション
などの最急傾斜法に基づく学習則でニューラルネットワ
ークの荷重係数を修正してデータ間の関係を実現する
際、予め設定した圧延材特有の典型的な形状パターンを
表現した基本要素パターンと検出される形状パターンと
の近似的な線形関係を利用することで、学習用データが
少ない場合でも形状パターンから基本要素パターンを抽
出できる最適なニューラルネットワークを実現する装置
及び方法を提供することにある。
An object of the present invention is to realize a relation between data by correcting a weighting factor of a neural network by a learning rule based on a steepest gradient method such as back propagation, which is typical of a typical rolled material set in advance. By using the approximate linear relationship between the basic element pattern expressing a simple shape pattern and the detected shape pattern, an optimal neural network that can extract the basic element pattern from the shape pattern even when the learning data is small is realized. It is an object of the present invention to provide an apparatus and a method.

【0005】[0005]

【課題を解決するための手段】本発明は、上記目的を達
成するために、圧延材の幅方向の典型的な形状パターン
からなる基本要素パターン記憶部,形状パターンと基本
要素パターンの関係を回帰分析により近似する関数近似
部,関数近似部で求めたパラメータを用いてニューラル
ネットワークの荷重係数の初期値を決定する荷重係数設
定部,検出される形状パターンとその形状パターンに含
まれる基本要素パターンとの成分比からなる学習用デー
タ記憶部,関数近似部の結果を利用して、学習用データ
記憶部からデータを選択する近似度判定部,近似度判定
部によりニューラルネットワークの荷重係数を修正する
ためのデータを蓄えた修正学習用データ記憶部を設け
る。
In order to achieve the above object, the present invention provides a basic element pattern storage section comprising a typical shape pattern in the width direction of a rolled material, and regression of a relationship between the shape pattern and the basic element pattern. A function approximation part that is approximated by analysis, a weight coefficient setting part that determines the initial value of the weight coefficient of the neural network using the parameters obtained by the function approximation part, the detected shape pattern and the basic element pattern included in the shape pattern Using the results of the learning data storage unit and the function approximation unit consisting of the component ratios, the approximation degree determination unit that selects data from the learning data storage unit, and correcting the weighting factor of the neural network by the approximation degree determination unit And a correction learning data storage unit storing the above data.

【0006】[0006]

【作用】圧延材の典型的な形状パターンからなる基本要
素パターン記憶部のデータを用いて、検出される圧延材
の幅方向形状パターンと基本要素パターン間の線形関係
を近似的に関数近似部において実現し、前記関数近似部
が表現した近似関数の係数パラメータを荷重係数設定部
がニューラルネットワークの荷重係数の初期値として設
定する。それにより近似度判定部が選出した修正学習用
データ記憶部の形状パターンを用いて、ニューラルネッ
トワークを学習させる。
The linear relation between the detected width-direction shape pattern of the rolled material and the basic element pattern is approximated by the function approximation unit using the data of the basic element pattern storage unit comprising the typical shape pattern of the rolled material. The weight coefficient setting unit sets the parameter of the approximation function represented by the function approximation unit as an initial value of the weight coefficient of the neural network. Thereby, the neural network is learned using the shape pattern of the correction learning data storage unit selected by the approximation degree determination unit.

【0007】[0007]

【実施例】以下、本発明の実施例を図1に示す多段ロー
ル圧延機の圧延材幅方向の板厚分布(形状)の制御に適
用した場合について述べる。圧延材の幅方向板厚分布
は、複数のセンサからなる形状検出器12により多点で
検出され、その多点で検出された検出量の包絡線を圧延
材の形状パターン(以下形状パターンと呼称)としてと
らえる。このとき、各センサの出力値をニューラルネッ
トワーク7の入力層の各ユニットに入力する。そして、
入力された圧延材の形状パターンに含まれている各基本
要素パターン(操作ルールが決まっている対象に特有な
基本形状パターン)の成分量をニューラルネットワーク
7が求め、操作量演算部11でアクチュエータ10への
操作量を求めて制御する。この制御構成におけるニュー
ラルネットワーク7は、検出された圧延材の形状パター
ンから予め設定した基本要素パターン成分を抽出する役
割をもつ。このとき検出される圧延材の形状パターン
は、基本要素パターンの線形和で近似できるとする。本
発明を用いたニューラルネットワークの学習は、以下の
ように行われる。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below in which the embodiment of the present invention is applied to the control of the thickness distribution (shape) in the width direction of a rolled material of the multi-roll mill shown in FIG. The thickness distribution of the rolled material in the width direction is detected at multiple points by a shape detector 12 including a plurality of sensors, and the envelope of the detected amount detected at the multiple points is defined as the shape pattern of the rolled material (hereinafter referred to as a shape pattern). ). At this time, the output value of each sensor is input to each unit of the input layer of the neural network 7. And
The neural network 7 obtains the component amount of each basic element pattern (basic shape pattern specific to the target for which the operation rule is determined) included in the input shape pattern of the rolled material. Control by obtaining the amount of operation to The neural network 7 in this control configuration has a role of extracting a preset basic element pattern component from the detected shape pattern of the rolled material. It is assumed that the shape pattern of the rolled material detected at this time can be approximated by a linear sum of basic element patterns. Learning of a neural network using the present invention is performed as follows.

【0008】まず形状検出器12により検出された圧延
材の形状パターンは、基本要素パターン記憶部8によ
り、基本要素パターンとして特有の板厚分布パターンを
抽出され、記憶される。これらの基本要素パターンは関
数近似部2に送られる。圧延材の形状パターンは、基本
要素パターンの線形和で表現されるとしたので、関数近
似部2では、形状パターンと基本要素パターン間の関係
を後述する回帰近似モデルで近似させる。
First, the basic material pattern storage unit 8 extracts and stores a specific thickness distribution pattern as the basic element pattern from the shape pattern of the rolled material detected by the shape detector 12. These basic element patterns are sent to the function approximation unit 2. Since the shape pattern of the rolled material is represented by a linear sum of the basic element patterns, the function approximation unit 2 approximates the relationship between the shape pattern and the basic element pattern by a regression approximation model described later.

【0009】関数近似部2は、近似させた回帰近似モデ
ルのパラメータを荷重係数設定部3に出力し、荷重係数
設定部3は回帰近似モデルで得られた関係をニューラル
ネットワーク7に対応した荷重係数に変換する。
The function approximation unit 2 outputs the approximated parameters of the regression approximation model to the weighting factor setting unit 3, and the weighting factor setting unit 3 converts the relationship obtained by the regression approximation model into a weighting factor corresponding to the neural network 7. Convert to

【0010】一方、形状検出器12により検出された圧
延材の形状パターンに対して、入力部13からオペレー
タにより、基本要素パターン記憶部8に記憶された各基
本要素パターンの成分比が入力され、形状パターンと共
に学習用データ記憶部1に蓄積される。そして近似度判
定部4では、関数近似部2から送られてきた回帰近似モ
デルを用いて、学習用データ記憶部1に記憶されている
各基本要素パターンの成分比を推定する。この成分比と
予め学習用データ記憶部1に設定した各基本要素パター
ンの成分比との差が判定基準値以上である場合、その形
状パターンをニューラルネットワーク7の修正用の学習
データとして修正学習用データ記憶部5に記憶させる。
On the other hand, with respect to the shape pattern of the rolled material detected by the shape detector 12, the operator inputs from the input unit 13 the component ratio of each basic element pattern stored in the basic element pattern storage unit 8, The data is stored in the learning data storage unit 1 together with the shape pattern. The approximation degree determination unit 4 estimates the component ratio of each basic element pattern stored in the learning data storage unit 1 using the regression approximation model sent from the function approximation unit 2. When the difference between this component ratio and the component ratio of each basic element pattern set in the learning data storage unit 1 in advance is equal to or larger than the determination reference value, the shape pattern is used as correction learning data for the neural network 7 for correction learning. The data is stored in the data storage unit 5.

【0011】荷重係数設定部3で求めたニューラルネッ
トワーク7に対応した荷重係数は、学習制御部6に出力
される。このとき各基本要素パターンの線形和で完全に
表現される圧延材の形状パターンならば、各基本要素パ
ターンの割合を出力できる。もしも基本要素パターンの
線形和だけでは表現できなければ、学習制御部6は、荷
重係数設定部3から送られたきた荷重係数を初期値とし
て、学習用データ記憶部1と修正学習用データ記憶部5
から送られてくる圧延材の形状パターンを用いてバック
プロパゲーションのような最急傾斜法による学習を行
い、ニューラルネットワーク7の荷重係数を修正する。
The weight coefficient corresponding to the neural network 7 obtained by the weight coefficient setting unit 3 is output to the learning control unit 6. At this time, if the shape pattern of the rolled material is completely represented by the linear sum of the respective basic element patterns, the ratio of the respective basic element patterns can be output. If it cannot be expressed only by the linear sum of the basic element patterns, the learning control unit 6 uses the weighting factor sent from the weighting factor setting unit 3 as an initial value and sets the learning data storage unit 1 and the correction learning data storage unit. 5
Learning by the steepest slope method such as back propagation is performed using the shape pattern of the rolled material sent from the company, and the weight coefficient of the neural network 7 is corrected.

【0012】図6に学習用データ記憶部1の一例を示
す。検出器12からの圧延材の幅方向形状分布が形状パ
ターンとして学習用データ記憶部1に送られる。また、
その検出された形状パターンに存在する基本要素パター
ンの成分比は入力部13から学習用データ記憶部1に入
力される。入力されたその成分比は基本要素パターン成
分比記憶部102に送られ、形状パターンは、その形状
パターンにおける基本要素パターンの成分比と対応させ
て形状パターン記憶部101に記憶される。
FIG. 6 shows an example of the learning data storage 1. The shape distribution in the width direction of the rolled material from the detector 12 is sent to the learning data storage unit 1 as a shape pattern. Also,
The component ratio of the basic element pattern existing in the detected shape pattern is input from the input unit 13 to the learning data storage unit 1. The input component ratio is sent to the basic element pattern component ratio storage unit 102, and the shape pattern is stored in the shape pattern storage unit 101 in association with the component ratio of the basic element pattern in the shape pattern.

【0013】図2に関数近似部2の一例を示す。関数近
似部2には、基本要素パターン記憶部8から基本要素パ
ターンが入力される。関数近似部2の内部では、この基
本要素パターンを回帰近似モデル202に送り、基本要
素パターンをベクトル表示したときの次数と基本要素パ
ターンの数から近似モデルの構造を決定する。また基本
要素パターンは、モデルパラメータ設定部201にも入
力される。モデルパラメータ設定部201の内部では、
以下に示すように回帰近似モデル202のパラメータが
設定される。
FIG. 2 shows an example of the function approximation unit 2. The basic element pattern is input from the basic element pattern storage unit 8 to the function approximation unit 2. Inside the function approximation unit 2, the basic element pattern is sent to the regression approximation model 202, and the structure of the approximate model is determined from the order when the basic element pattern is displayed as a vector and the number of basic element patterns. The basic element pattern is also input to the model parameter setting unit 201. Inside the model parameter setting unit 201,
The parameters of the regression approximation model 202 are set as described below.

【0014】圧延材の形状パターンが基本要素パターン
記憶部8の基本要素パターンの線形和で表現されると考
えると、m個のセンサによる圧延材の形状パターンの出
力値Xとその形状パターンに含まれているn個の各基本
要素パターンの割合Yとの近似的な線形関係は数1に示
す回帰モデルで表現される。
Assuming that the shape pattern of the rolled material is represented by a linear sum of the basic element patterns in the basic element pattern storage unit 8, the output value X of the shape pattern of the rolled material by m sensors and the output value X included in the shape pattern The approximate linear relationship with the ratio Y of each of the n basic element patterns is expressed by a regression model shown in Expression 1.

【0015】[0015]

【数1】 (Equation 1)

【0016】但し、X1〜Xmは圧延材の形状パターン
で、Xiは幅方向に分布するi番目のセンサの出力値で
ある。またY1〜Ynは、形状パターンに含まれる基本
要素パターンの割合で、Yiは、第i番目の基本要素パ
ターンの割合である。さらにnvi1〜nvimは第i番目
の基本要素パターンで、iは1からnまでの自然数であ
る。
Here, X1 to Xm are the shape patterns of the rolled material, and Xi is the output value of the i-th sensor distributed in the width direction. Y1 to Yn are the ratios of the basic element patterns included in the shape pattern, and Yi is the ratio of the i-th basic element pattern. Further, nv i1 to nv im are the i-th basic element patterns, and i is a natural number from 1 to n.

【0017】[0017]

【数2】 (Equation 2)

【0018】[0018]

【数3】 (Equation 3)

【0019】[0019]

【数4】 wik=nvik−pi …(数4)## EQU00004 ## w ik = nv ik -p i (Equation 4)

【0020】[0020]

【数5】 (Equation 5)

【0021】ここでPiは各基本要素パターンの分布値
の平均である。
Here, Pi is the average of the distribution values of each basic element pattern.

【0022】このように、回帰近似モデル202内部で
は、基本要素パターン記憶部1における基本要素パター
ンの分布量と基本要素パターンの数によってモデルの大
きさが決定され、数1のようなモデル構造が構築され
る。モデルパラメータ設定部201では、回帰近似モデ
ル202の内部のパラメータwik、及びwbijを設定す
る。
As described above, inside the regression approximation model 202, the size of the model is determined by the distribution amount of the basic element pattern in the basic element pattern storage unit 1 and the number of the basic element patterns, and the model structure as shown in Equation 1 is obtained. Be built. The model parameter setting unit 201 sets parameters w ik and wb ij inside the regression approximation model 202.

【0023】ここで数1の意味を述べる。先ずwikは、
第i番目の基本パターンのk番目の分布値(厳密には、
平均値Pi からの偏差値)を表している。従ってW・X
の演算は、圧延材の形状パターンXと基本要素パターン
nvi との相関を計算していることになる。また、Wb
は各基本要素パターン間の相関関係を表している。従っ
て、Wb・W・xは、圧延材の形状パターンと基本要素
パターンの相関結果をもとに形状パターンに含まれる割
合を求めている。
Here, the meaning of Equation 1 will be described. First, wik
The k-th distribution value of the i-th basic pattern (strictly speaking,
It represents the deviation) from the average value P i. Therefore W · X
Operation, it means that by calculating the correlation between the shape pattern X and the basic element patterns nv i of the rolling material. Also, Wb
Represents the correlation between the basic element patterns. Therefore, the ratio Wb · W · x is determined based on the correlation result between the shape pattern of the rolled material and the basic element pattern.

【0024】図3に荷重係数設定部3の詳細図を示す。
荷重係数設定部3は変換関数選定部301とパラメータ
変換部302から構成されており、変換関数選定部30
1には、予めニューラルネットワーク7の内部演算で用
いられる非線形変換関数である次の数6で表現したシグ
モイド関数が記憶されている。
FIG. 3 shows a detailed view of the load coefficient setting section 3.
The load coefficient setting unit 3 includes a conversion function selection unit 301 and a parameter conversion unit 302.
1 stores in advance a sigmoid function expressed by the following equation 6, which is a non-linear conversion function used in the internal operation of the neural network 7.

【0025】[0025]

【数6】 (Equation 6)

【0026】ここでuは入力、yは出力、km,ktは
パラメータである。
Here, u is an input, y is an output, and km and kt are parameters.

【0027】関数近似部2から回帰近似モデルのパラメ
ータがパラメータ変換部302に入力される。また学習
制御部6からニューラルネットワーク7で用いられるシ
グモイド関数のパラメータ(km,kt)が、変換関数
設定部301に入力され、シグモイド関数の逆関数が決
定される。その逆関数と関数近似部2で求めた回帰近似
モデルのパラメータ(wbij,wjk)は、パラメータ変
換部302に入力される。そして回帰近似モデルのパラ
メータ(wbij,wjk)は、変換関数選定部301から
の逆関数に基づいて変換され、学習制御部6に出力され
る。このように回帰近似モデルとニューラルネットワー
クを対応付けて考える。
The parameters of the regression approximation model are input from the function approximation unit 2 to the parameter conversion unit 302. Further, the parameters (km, kt) of the sigmoid function used in the neural network 7 from the learning control unit 6 are input to the conversion function setting unit 301, and the inverse function of the sigmoid function is determined. The inverse function and the parameters (wb ij , w jk ) of the regression approximation model obtained by the function approximation unit 2 are input to the parameter conversion unit 302. Then, the parameters (wb ij , w jk ) of the regression approximation model are converted based on the inverse function from the conversion function selection unit 301 and output to the learning control unit 6. The regression approximation model and the neural network are considered in this way.

【0028】またパラメータ変換は次のように行う。関
数近似部2では数1で示されたように、基本要素パター
ンにより入・出力間の関係は2つの線形写像の合成で表
現できる。このときニューラルネットワーク7の構造も
入力層−中間層間の積和演算と中間層−出力層間の積和
演算の2つの変換から成立していることが分かる。そこ
で回帰モデルにおけるパラメータwによる変換を入力層
−中間層間の変換に対応させ、回帰モデルにおけるパラ
メータwbによる変換は中間層−出力層間の変換に対応
させる。すなわちwikがニューラルネットワークの入力
層−中間層間の荷重係数に対応し、wbijが中間層−出
力層間の荷重係数に対応する。
The parameter conversion is performed as follows. In the function approximation unit 2, the relationship between input and output can be represented by the combination of two linear mappings by the basic element pattern, as shown in Expression 1. At this time, it can be seen that the structure of the neural network 7 also consists of two conversions: a product-sum operation between the input layer and the intermediate layer and a product-sum operation between the intermediate layer and the output layer. Therefore, the conversion by the parameter w in the regression model is made to correspond to the conversion between the input layer and the intermediate layer, and the conversion by the parameter wb in the regression model is made to correspond to the conversion between the intermediate layer and the output layer. That is, w ik corresponds to the weight coefficient between the input layer and the intermediate layer of the neural network, and wb ij corresponds to the weight coefficient between the intermediate layer and the output layer.

【0029】さらにニューラルネットワーク7の構造も
決定される。つまり入力層ユニット数は、圧延材の幅方
向に分布するセンサの数(=m)と同じであり、中間層
及び出力層のユニット数は、基本要素パターンの数(=
n)と同じになる。
Further, the structure of the neural network 7 is also determined. That is, the number of units in the input layer is the same as the number of sensors distributed in the width direction of the rolled material (= m), and the number of units in the intermediate layer and the output layer is the number of basic element patterns (=
n).

【0030】次に、パラメータ変換部302内部で行わ
れる回帰近似モデルのパラメータをニューラルネットワ
ークの荷重係数に変換する処理について説明する。ニュ
ーラルネットワーク7に用いられるシグモイド関数は、
uの零近傍で数7のように近似的に表現できる。パラメ
ータKLは、uの零近傍における数6のシグモイド関数
を一次式で最小二乗近似したときの傾きである。
Next, the process of converting the parameters of the regression approximation model, which is performed inside the parameter conversion unit 302, into the weighting factors of the neural network will be described. The sigmoid function used for the neural network 7 is
It can be approximately expressed as in Equation 7 near zero of u. The parameter KL is a gradient obtained by approximating the sigmoid function of Equation 6 in the vicinity of zero of u by a least square method using a linear expression.

【0031】[0031]

【数7】 y=KL×u …(数7) 従って、ニューラルネットワーク7の中間層及び出力層
の入・出力関係を考えると、近似的に次の数8のように
なる。
Y = KL × u (Equation 7) Therefore, considering the input / output relationship between the intermediate layer and the output layer of the neural network 7, the following Expression 8 is obtained.

【0032】[0032]

【数8】 (Equation 8)

【0033】ここでuk は入力層に入力される入力パタ
ーン、Wn1jkはその入力に対する中間層荷重係数、y
cjは、中間層の出力、uk は出力層に入力される入力、
Wn2ijはその入力に対する出力層荷重係数、yoiは出
力層の出力である。数8は、回帰近似モデルの構造と同
じである。従ってニューラルネットワークの荷重係数W
n1jk,Wn2ijと、回帰近似モデルのパラメータ(w
jk,wbij)との関係は、次の数9のように表現でき
る。
The input pattern where u k is inputted to the input layer, Wn1 jk intermediate layer weighting factor for that input, y
cj is the output of the intermediate layer, u k is inputted to the output layer input,
Wn2 ij output layer load factor for the input, y oi is the output of the output layer. Equation 8 is the same as the structure of the regression approximation model. Therefore, the weight coefficient W of the neural network
n1 jk , Wn2 ij and the parameters (w
jk , wb ij ) can be expressed as in the following Expression 9.

【0034】[0034]

【数9】 wjk=KL×Wn1jk wbij=KL×Wn2ij …(数9) 従ってパラメータ変換部302の内部では、ニューラル
ネットワーク7の入力層,中間層及び出力層のユニット
数とともに、ニューラルネットワーク7に対応した荷重
係数を次の数10で算出し、学習制御部6に出力する。
そして、学習制御部6は、ニューラルネットワーク7の
入力層,中間層及び出力層のユニット数とともに、この
計算で求められた荷重係数をニューラルネットワーク7
の荷重係数初期値としてニューラルネットワーク7に設
定する。なお数10の変換は、シグモイド関数の近似
式、数7の逆変換である。
W jk = KL × Wn1 jk wb ij = KL × Wn2 ij (Equation 9) Therefore, inside the parameter conversion unit 302, the neural network 7 includes the neural network 7 together with the number of units of the input layer, the intermediate layer and the output layer. The weight coefficient corresponding to the network 7 is calculated by the following equation 10, and is output to the learning control unit 6.
Then, the learning control unit 6 calculates the weighting factor obtained by this calculation together with the number of units of the input layer, the intermediate layer, and the output layer of the neural network 7.
Is set in the neural network 7 as the initial value of the weighting factor. Note that the transformation of Expression 10 is an approximate expression of a sigmoid function, and the inverse transformation of Expression 7.

【0035】[0035]

【数10】 (Equation 10)

【0036】図4に近似度判定部4の詳細図を示す。近
似度判定部4は、関数近似部2の構成要素である回帰近
似モデル202と同じ近似モデルを有する回帰近似モデ
ル401,近似度演算部402及び判定部403からな
る。関数近似部2からの回帰近似モデルパラメータは、
回帰近似モデル401に入力され、関数近似部2で求め
た基本要素パターンと形状パターンとの線形近似関係を
実現させる。回帰近似モデル401が実現されると、学
習用データ記憶部1から形状パターン(入力データ)を
回帰近似モデル401に入力し、圧延材の形状パターン
に含まれる各基本要素パターンの成分比の推定値を算出
する。回帰近似モデル401で算出された推定値と、予
め熟練者などによって学習用データ記憶部1に設定され
ている各基本要素パターンの成分比の初期値とは、近似
度演算部402に入力され、推定値と初期値との誤差を
算出する。この推定誤差は、各基本要素パターンに対す
る成分比の推定誤差の2乗和から算出する。
FIG. 4 is a detailed diagram of the approximation degree judging section 4. The approximation degree judgment unit 4 includes a regression approximation model 401 having the same approximation model as the regression approximation model 202 which is a component of the function approximation unit 2, an approximation degree calculation unit 402, and a judgment unit 403. The regression approximation model parameters from the function approximation unit 2 are as follows:
A linear approximation relationship between the basic element pattern and the shape pattern input to the regression approximation model 401 and obtained by the function approximation unit 2 is realized. When the regression approximation model 401 is realized, a shape pattern (input data) is input from the learning data storage unit 1 to the regression approximation model 401, and an estimated value of a component ratio of each basic element pattern included in the shape pattern of the rolled material Is calculated. The estimated value calculated by the regression approximation model 401 and the initial value of the component ratio of each basic element pattern preset in the learning data storage unit 1 by an expert or the like are input to the approximation degree calculation unit 402, The error between the estimated value and the initial value is calculated. This estimation error is calculated from the sum of squares of the estimation error of the component ratio for each basic element pattern.

【0037】近似度演算部402は、その推定誤差を判
定部403に出力する。判定部403では、近似度演算部
402から送られた推定誤差が予め設定しておいた許容
推定誤差を超える場合、回帰モデルでは十分近似できな
いと判断し、その形状パターンを修正学習用データ記憶
部5に送る。こうして回帰モデルで十分に近似できなか
ったデータは、修正学習用データ記憶部5に記憶させて
おく。
The approximation degree calculating section 402 outputs the estimation error to the determining section 403. When the estimation error sent from the approximation degree calculation unit 402 exceeds a preset allowable estimation error, the determination unit 403 determines that the regression model cannot be sufficiently approximated, and stores the shape pattern in the correction learning data storage unit. Send to 5. Data that could not be sufficiently approximated by the regression model is stored in the correction learning data storage unit 5 in this way.

【0038】図5に学習制御部6及びニューラルネット
ワーク7の関係を表す詳細図を示す。学習制御部6は、
データ記憶部601,荷重係数記憶部602,学習実行
部603及び切換部604から構成される。学習用デー
タ記憶部1と修正学習用データ記憶部5から出力される
形状パターンと、そこに含まれる各基本要素パターンの
成分比は、データ記憶部601に記憶される。荷重係数
設定部3で求めた荷重係数は、学習制御部6の内部の荷
重係数記憶部602に荷重係数初期値として記憶され
る。また荷重係数設定部3は、算出した荷重係数初期値
に応じた入力層,中間層及び出力層のユニット数を学習
実行部603に出力する。学習実行部603は、ニュー
ラルネットワーク7の中間層のユニット数及び内部演算
で用いるシグモイド関数のパラメータ(km,kt)を
ニューラルネットワーク7に出力し、ニューラルネット
ワーク7を決定する。
FIG. 5 is a detailed diagram showing the relationship between the learning control unit 6 and the neural network 7. The learning control unit 6
It comprises a data storage unit 601, a weight coefficient storage unit 602, a learning execution unit 603, and a switching unit 604. The shape pattern output from the learning data storage unit 1 and the correction learning data storage unit 5 and the component ratio of each basic element pattern included therein are stored in the data storage unit 601. The load coefficient obtained by the load coefficient setting unit 3 is stored as a load coefficient initial value in the load coefficient storage unit 602 inside the learning control unit 6. In addition, the load coefficient setting unit 3 outputs the number of units of the input layer, the intermediate layer, and the output layer according to the calculated load coefficient initial value to the learning execution unit 603. The learning execution unit 603 outputs the number of units in the hidden layer of the neural network 7 and the parameters (km, kt) of the sigmoid function used in the internal calculation to the neural network 7 to determine the neural network 7.

【0039】次にニューラルネットワーク7の学習方法
について説明する。ニューラルネットワーク7が決定さ
れると、切換部604は荷重係数記憶部602とニュー
ラルネットワーク7とを接続し、荷重係数記憶部602
の荷重係数がニューラルネットワーク7に初期値として
出力される。次に切換部604が切り換わり、学習実行
部603とニューラルネットワーク7が接続され、学習
が開始される。
Next, a method of learning the neural network 7 will be described. When the neural network 7 is determined, the switching unit 604 connects the weight coefficient storage unit 602 and the neural network 7, and switches the weight coefficient storage unit 602.
Is output to the neural network 7 as an initial value. Next, the switching unit 604 is switched, the learning execution unit 603 and the neural network 7 are connected, and learning is started.

【0040】学習実行部603は、データ記憶部601
から送られてくるデータと、ニューラルネットワーク7
の出力値とを比較し、荷重係数記憶部602から送られ
てきた荷重係数をバックプロパゲーションのような学習
則に従って修正する。修正された荷重係数は、切換部6
04を経由してニューラルネットワーク7に送られ、ニ
ューラルネットワーク7の荷重係数を変更する。なおニ
ューラルネットワーク7の修正のために学習用データ記
憶部1と修正学習用データ記憶部5の両方から送られて
きたデータを用いて学習を行うとき、修正学習用データ
記憶部5のデータを優先的に学習に用いるようにする。
ニューラルネットワーク7の初期値は線形関係が実現さ
れているため、非線形性が存在し十分に線形モデルでは
近似できない可能性があるからである。従って修正学習
用データ記憶部5からのデータをより頻繁にニューラル
ネットワーク7に教示する。
The learning execution unit 603 includes a data storage unit 601
And the neural network 7
, And corrects the load coefficient sent from the load coefficient storage unit 602 according to a learning rule such as back propagation. The corrected load coefficient is applied to the switching unit 6
The signal is sent to the neural network 7 via the network 04 and changes the weight coefficient of the neural network 7. When learning is performed using the data sent from both the learning data storage unit 1 and the correction learning data storage unit 5 for correcting the neural network 7, the data in the correction learning data storage unit 5 is given priority. Use it for learning.
This is because the initial value of the neural network 7 has a linear relationship, and therefore has nonlinearity and may not be sufficiently approximated by a linear model. Therefore, the data from the correction learning data storage unit 5 is taught to the neural network 7 more frequently.

【0041】図7に、本発明で設計したニューラルネッ
トワークと、乱数で荷重係数の初期値を設定した従来の
ニューラルネットワークとを比較した結果を示す。シミ
ュレーションには、基本要素パターンf1,f2,f3
ランダムな割合(比率=α:β:γ)で合成し、更に雑
音を加えて形状パターンとした。なお成分比推定誤差
は、各ニューラルネットワークで求めた各基本要素パタ
ーンの成分比と実際に各基本要素パターンを合成したと
きの成分比との差の二乗和とする。また形状パターンの
大きさに対する雑音の比率の最大値を雑音レベルとす
る。
FIG. 7 shows the result of comparison between the neural network designed according to the present invention and a conventional neural network in which the initial values of the weighting factors are set by random numbers. In the simulation, the basic element patterns f 1 , f 2 , and f 3 were synthesized at a random ratio (ratio = α: β: γ), and a noise was added to form a shape pattern. Note that the component ratio estimation error is the sum of squares of the difference between the component ratio of each basic element pattern obtained by each neural network and the component ratio when each basic element pattern is actually synthesized. The maximum value of the ratio of noise to the size of the shape pattern is defined as the noise level.

【0042】図7の結果から従来のニューラルネットワ
ークより本発明の方が、全雑音レベルにおいて成分比推
定誤差が低減化できている。このことは検出された形状
パターンから各基本要素パターンの成分をより正確に求
められることを示している。さらに本発明は、検出パタ
ーンに含まれる雑音の比率の大きさに対して成分比推定
誤差は変化しにくく、雑音に対して強いという効果もあ
る。
From the results shown in FIG. 7, the error of the component ratio estimation can be reduced in the entire noise level in the present invention than in the conventional neural network. This indicates that the components of each basic element pattern can be more accurately obtained from the detected shape pattern. Further, the present invention has an effect that the component ratio estimation error hardly changes with respect to the magnitude of the ratio of noise included in the detection pattern, and is strong against noise.

【0043】また図8にニューラルネットワークの入力
層−中間層間の荷重係数について、従来例と本発明との
比較を示す。図8において、黒い四角は回帰近似モデル
から設定された荷重係数値で、基本要素パターンf1
2,f3 を線形和で表現した幅方向形状パターンから
各分布値に対応する数値が設定される。○は、回帰近似
モデルから設定された荷重係数を初期値にして学習して
得られた荷重係数である。この場合の荷重係数は、基本
要素パターンの非線形和も考慮され、雑音に対して低感
度になるように荷重係数が修正されている。しかも回帰
近似モデルから設定された荷重係数に似たような値で収
斂しており、基本的な線形特性を残したままであること
が分かる。このことは入力層−中間層間の演算が、入力
される形状パターンと基本要素パターンとの相関を有し
たままで計算できることを意味する。
FIG. 8 shows a comparison of the weight coefficient between the input layer and the intermediate layer of the neural network between the conventional example and the present invention. In FIG. 8, the black squares are the load coefficient values set from the regression approximation model, and the basic element patterns f 1 ,
A numerical value corresponding to each distribution value is set from the width direction shape pattern expressing f 2 and f 3 as a linear sum. ○ is a load coefficient obtained by learning with the load coefficient set from the regression approximation model as an initial value. In this case, the weighting factor is modified so as to be less sensitive to noise, taking into account the non-linear sum of the basic element patterns. In addition, it can be seen that the values converge at a value similar to the load coefficient set from the regression approximation model, and the basic linear characteristics remain. This means that the calculation between the input layer and the intermediate layer can be performed while maintaining the correlation between the input shape pattern and the basic element pattern.

【0044】一方△は、従来のニューラルネットワーク
で、初期値を乱数で設定した荷重係数で、回帰近似モデ
ルと類似の荷重係数だけでなく、全く異なる荷重係数も
あるため、荷重係数を修正したいときの目安を捕らえに
くい問題がある。
On the other hand, △ is a conventional neural network, which is a weighting factor whose initial value is set by a random number. When there is not only a weighting factor similar to that of the regression approximation model but also a completely different weighting factor. There is a problem that it is hard to catch the standard of the.

【0045】このように本発明は、ニューラルネットワ
ーク内部の状態が理解しやすくなるから、誤った認識を
したときにニューラルネットワークの問題点を分析でき
るという効果もある。
As described above, since the present invention makes it easier to understand the state inside the neural network, there is also an effect that the problem of the neural network can be analyzed when erroneous recognition is made.

【0046】図10のフローチャートは、今まで述べて
きた本発明のニューラルネットワークの設計方法であ
る。先ずstep1において圧延材の幅方向形状パターンが
検出される。これらの検出された形状パターンに対して
特徴的な基本要素パターンがstep2.1において入力さ
れる。step3.1では、step2.1 で入力された基本要
素パターンを用いて回帰近似モデルを作成する。step
4.1では、step3.1で作成した回帰近似モデルのパラ
メータをニューラルネットワークの荷重係数初期値に変
換する。step5.1 では、ニューラルネットワークの中
間層ユニット数とシグモイド関数のパラメータを決定し
て、step4.1 で求めた荷重係数をニューラルネットワ
ークの初期値として設定する。
The flowchart of FIG. 10 is a method for designing a neural network according to the present invention described above. First, in step 1, a width direction shape pattern of a rolled material is detected. Basic element patterns characteristic of these detected shape patterns are input in step 2.1. In step 3.1, a regression approximation model is created using the basic element pattern input in step 2.1. step
In 4.1, the parameters of the regression approximation model created in step 3.1 are converted to the initial weighting factors of the neural network. In step 5.1, the number of hidden units in the neural network and the parameters of the sigmoid function are determined, and the weighting factor obtained in step 4.1 is set as the initial value of the neural network.

【0047】一方、step1で検出された形状パターン
は、step2.2 において学習データとして収集され、st
ep2.1 で入力した各基本要素パターンが形状パターン
にどのような成分比で含まれるかを入力する。次に、st
ep3.2では、step3.1で作成した回帰近似モデルを用
いて、step2.2 で収集した形状パターンに含まれる基
本要素パターンの成分比を推定する。つづいて、step
4.2では、step3.2で推定した結果とstep2.2 で入
力した成分比と比較し、その差が大きい形状パターンを
修正学習用データとして登録する。そしてstep5.2で
は、step4.2で判定された形状パターンとそのパター
ンに含まれる基本要素パターンの成分比の組合せをニュ
ーラルネットワーク7の荷重係数を修正するための学習
データとして修正学習用データ記憶部5に設定する。st
ep6では、step5.1 で決定されたニューラルネットワ
ークとstep5.2 で収集した修正用学習データ(形状デ
ータ)及びstep2.2 で収集した学習データを用いて、
バックプロパゲーションの様な学習則でニューラルネッ
トワークの荷重係数を修正する。このとき、データの教
示の方法は、修正学習用データ記憶部5のパターンを繰
り返しニューラルネットワーク7に教示して荷重係数を
修正する。そして、修正学習用データ記憶部5のパター
ンを数回繰り返し学習した後、修正学習用データ記憶部
5の学習回数より少ない回数だけ学習用データ記憶部1
のパターンを学習させる。その後、再び修正学習用デー
タ記憶部5のパターンを繰り返し学習させる。以上の操
作を繰り返すことで、十分に近似できなかった形状パタ
ーン(修正学習用データ記憶部5のパターン)に重みを
かけて学習させる。
On the other hand, the shape pattern detected in step 1 is collected as learning data in step 2.2,
Input what component ratio each basic element pattern input in ep2.1 is included in the shape pattern. Then, st
In ep3.2, the component ratio of the basic element pattern included in the shape pattern collected in step 2.2 is estimated using the regression approximation model created in step 3.1. Then, step
In 4.2, the result estimated in step 3.2 is compared with the component ratio input in step 2.2, and a shape pattern having a large difference is registered as correction learning data. In step 5.2, a combination of the shape pattern determined in step 4.2 and the component ratio of the basic element pattern included in the pattern is used as learning data for correcting the weighting factor of the neural network 7 as a correction learning data storage unit. Set to 5. st
In ep6, using the neural network determined in step 5.1, the learning data for correction (shape data) collected in step 5.2, and the learning data collected in step 2.2,
Modify the weighting factor of the neural network by a learning rule such as back propagation. At this time, the method of teaching data is to repeatedly teach the pattern of the correction learning data storage unit 5 to the neural network 7 to correct the load coefficient. Then, after repeatedly learning the pattern of the correction learning data storage unit 5 several times, the learning data storage unit 1 has a smaller number of times than the number of times of learning of the correction learning data storage unit 5.
To learn the pattern. Thereafter, the pattern of the correction learning data storage unit 5 is repeatedly learned again. By repeating the above operation, the shape pattern that could not be sufficiently approximated (the pattern of the correction learning data storage unit 5) is weighted and learned.

【0048】図9は、1つの新たな基本要素パターンを
形状パターンに追加するときのニューラルネットワーク
7の変更の方法を示した図である。新たに基本要素パタ
ーンが追加されると、先ず基本要素パターンの成分比を
出力するためのユニット700−2が出力層に一つ追加さ
れる。さらに入力層−中間層間で計算する基本要素パタ
ーンと入力される形状パターンとの相関を中間層で出力
するため、ユニット700−1が中間層に一つ追加され
る。基本パターンを多数追加する場合は、この操作を繰
り返せば良い。
FIG. 9 is a diagram showing a method of changing the neural network 7 when adding one new basic element pattern to a shape pattern. When a basic element pattern is newly added, first, a unit 700-2 for outputting the component ratio of the basic element pattern is added to the output layer. Further, in order to output the correlation between the basic element pattern calculated between the input layer and the intermediate layer and the input shape pattern in the intermediate layer, one unit 700-1 is added to the intermediate layer. When adding a large number of basic patterns, this operation may be repeated.

【0049】[0049]

【発明の効果】本発明によれば、検出される形状パター
ンと基本要素パターンとの相関関係を回帰モデルを用い
て予め近似し、その結果からニューラルネットワークの
荷重係数の初期値を設定して設計するため、形状パター
ンと基本要素パターンの間の近似的な関係をニューラル
ネットワークに実現できるので、検出される形状パター
ンに含まれる基本要素パターン成分比をより最適に実現
するニューラルネットワークに収斂させることができ
る。またニューラルネットワーク内部の状態が理解しや
すくなり、誤った認識をしたときにニューラルネットワ
ークの問題点を分析できるという効果もある。
According to the present invention, the correlation between the detected shape pattern and the basic element pattern is approximated in advance by using a regression model, and the initial value of the weighting factor of the neural network is set based on the result. Therefore, since the approximate relationship between the shape pattern and the basic element pattern can be realized in the neural network, it is possible to converge to the neural network that realizes the basic element pattern component ratio included in the detected shape pattern more optimally. it can. In addition, there is an effect that the state inside the neural network can be easily understood, and a problem of the neural network can be analyzed when erroneous recognition is performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例を表す構成図。FIG. 1 is a configuration diagram illustrating an embodiment of the present invention.

【図2】関数近似部を表す図。FIG. 2 is a diagram illustrating a function approximation unit.

【図3】荷重係数設定部を表す図。FIG. 3 is a diagram illustrating a load coefficient setting unit.

【図4】近似度判定部を表す図。FIG. 4 is a diagram illustrating an approximation degree determination unit.

【図5】学習制御部とニューラルネットワークを表す
図。
FIG. 5 is a diagram showing a learning control unit and a neural network.

【図6】学習用記憶部を表す図。FIG. 6 is a diagram illustrating a learning storage unit.

【図7】本発明を用いたシミュレーション結果。FIG. 7 is a simulation result using the present invention.

【図8】本発明を用いた場合のニューラルネットワーク
の荷重係数を表す説明図。
FIG. 8 is an explanatory diagram showing weight coefficients of a neural network when the present invention is used.

【図9】本発明を用いた場合のニューラルネットワーク
構造の説明図。
FIG. 9 is an explanatory diagram of a neural network structure when the present invention is used.

【図10】本発明のニューラルネットワーク設計方法の
フローチャート図である。
FIG. 10 is a flowchart of the neural network design method of the present invention.

【符号の説明】[Explanation of symbols]

1…学習用記憶部、2…関数近似部、3…荷重係数設定
部、4…近似度判定部、5…修正学習用データ記憶部、
6…学習制御部、7…ニューラルネットワーク、8…基
本要素パターン記憶部。
DESCRIPTION OF SYMBOLS 1 ... Learning storage part, 2 ... Function approximation part, 3 ... Weight coefficient setting part, 4 ... Approximation degree determination part, 5 ... Correction learning data storage part,
6: learning control unit, 7: neural network, 8: basic element pattern storage unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 片山 恭紀 茨城県日立市大みか町五丁目2番1号 株式会社 日立情報制御システム内 (72)発明者 中島 正明 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (72)発明者 服部 哲 茨城県日立市大みか町五丁目2番1号 株式会社 日立製作所 大みか工場内 (56)参考文献 特開 平4−90004(JP,A) 特開 平4−127908(JP,A) 特開 平4−313410(JP,A) 特開 平5−42314(JP,A) (58)調査した分野(Int.Cl.7,DB名) B21B 37/00 - 37/78 G05B 13/02 G06F 15/18 G06G 7/60 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Yuki Katayama 5-2-1 Omika-cho, Hitachi City, Ibaraki Prefecture Within Hitachi Information & Control Systems Co., Ltd. (72) Inventor Masaaki Nakajima 5-chome Omika-cho, Hitachi City, Ibaraki Prefecture No. 1 Hitachi, Ltd. Omika Plant (72) Inventor Satoshi Hattori 5-2-1, Omika-cho, Hitachi City, Ibaraki Prefecture Hitachi, Ltd. Omika Plant (56) References JP-A-4-90004 (JP, A) JP-A-4-127908 (JP, A) JP-A-4-313410 (JP, A) JP-A-5-42314 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) ) B21B 37/00-37/78 G05B 13/02 G06F 15/18 G06G 7/60

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】圧延材の板厚形状データを検出する形状検
出器と、 前記形状データの基本要素パターンを記憶する基本要素
パターン記憶手段と、 前記形状データに対する前記基本要素パターンの成分割
合を多項式で近似する関数近似手段と、 前記関数近似手段の結果からニューラルネットワークの
荷重係数の初期値を算出する荷重係数設定手段と、 前記形状データと前記成分割合とを記憶する学習用デー
タ記憶手段と、 前記関数近似手段の結果と、前記学習用データ記憶手段
からのデータとの比較から近似度を判定する近似度判定
手段と、 前記近似度判定手段からの判定が許容誤差外のときは修
正データとして前記形状データ及び、その形状データに
含まれる基本要素パターンとの成分割合とを記憶する修
正学習用データ記憶手段と、 前記荷重係数設定手段からの出力と前記学習用データ記
憶手段及び前記修正学習用データ記憶手段からの出力と
からニューラルネットワークの学習を行う学習制御手段
と、を備えていることを特徴とするプラント制御装置。
1. A shape detector for detecting sheet thickness shape data of a rolled material, a basic element pattern storage means for storing a basic element pattern of the shape data, and a polynomial of a component ratio of the basic element pattern to the shape data. Function approximation means for approximating, weighting factor setting means for calculating an initial value of the weighting factor of the neural network from the result of the function approximation means, learning data storage means for storing the shape data and the component ratio, A result of the function approximation means, an approximation degree determination means for determining an approximation degree from a comparison between the data from the learning data storage means, and correction data when the determination from the approximation degree determination means is outside an allowable error. Correction learning data storage means for storing the shape data and a component ratio with a basic element pattern included in the shape data; A plant control device comprising: learning control means for learning a neural network from an output from a load coefficient setting means and outputs from the learning data storage means and the correction learning data storage means. .
【請求項2】形状検出器によって検出された圧延材の板
厚形状データから前記形状データに対する基本要素パタ
ーンの成分割合を関数近似して、前記近似結果からニュ
ーラルネットワークの荷重係数の初期値を算出するとと
もに、前記形状データに含まれる基本要素パターンとの
成分割合と前記形状データとを学習データとして入力
し、前記関数近似結果の成分割合と前記学習データの成
分割合との比較から近似度を判定し、前記判定の結果が
許容誤差外のときは前記形状データを修正学習用データ
としてニューラルネットワークの学習を行ってプラント
を制御するプラント制御方法。
2. A function approximation of a component ratio of a basic element pattern to the shape data from the thickness data of a rolled material detected by a shape detector, and an initial value of a weighting factor of a neural network is calculated from the approximation result. And inputting the component ratio of the basic element pattern included in the shape data and the shape data as learning data, and determining the degree of approximation from a comparison between the component ratio of the function approximation result and the component ratio of the learning data. A plant control method for controlling a plant by learning a neural network using the shape data as correction learning data when the result of the determination is out of an allowable error.
【請求項3】請求項1において、前記関数近似手段に回
帰分析手段を用いることを特徴とするプラント制御装
置。
3. The plant control apparatus according to claim 1, wherein regression analysis means is used as said function approximation means.
【請求項4】請求項1において、前記近似度判定手段か
らの判定は、前記成分割合の差の自乗とすることを特徴
とするプラント制御装置。
4. The plant control apparatus according to claim 1, wherein the determination from the approximation degree determination means is a square of the difference between the component ratios.
JP05161093A 1993-03-12 1993-03-12 Plant control apparatus and method Expired - Fee Related JP3308630B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP05161093A JP3308630B2 (en) 1993-03-12 1993-03-12 Plant control apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP05161093A JP3308630B2 (en) 1993-03-12 1993-03-12 Plant control apparatus and method

Publications (2)

Publication Number Publication Date
JPH06262234A JPH06262234A (en) 1994-09-20
JP3308630B2 true JP3308630B2 (en) 2002-07-29

Family

ID=12891677

Family Applications (1)

Application Number Title Priority Date Filing Date
JP05161093A Expired - Fee Related JP3308630B2 (en) 1993-03-12 1993-03-12 Plant control apparatus and method

Country Status (1)

Country Link
JP (1) JP3308630B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108687137A (en) * 2017-04-10 2018-10-23 株式会社日立制作所 Complete equipment control device, rolling mill control apparatus, control method and storage medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100384121B1 (en) * 1997-03-31 2003-12-24 주식회사 포스코 Method for controlling shape of cold rolled strip using neural network
JP6283851B2 (en) * 2014-07-01 2018-02-28 株式会社日立製作所 Information processing apparatus and parameter calculation method
JP7161091B2 (en) * 2017-10-31 2022-10-26 キヤノンマーケティングジャパン株式会社 Information processing device, information processing method, program
JP7409343B2 (en) * 2021-03-17 2024-01-09 横河電機株式会社 Controller, control method and control program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108687137A (en) * 2017-04-10 2018-10-23 株式会社日立制作所 Complete equipment control device, rolling mill control apparatus, control method and storage medium

Also Published As

Publication number Publication date
JPH06262234A (en) 1994-09-20

Similar Documents

Publication Publication Date Title
Bhama et al. Single layer neural networks for linear system identification using gradient descent technique
JP3308630B2 (en) Plant control apparatus and method
JPH04262453A (en) Neurolearning control method and equipment
US5613042A (en) Chaotic recurrent neural network and learning method therefor
JPH07121498A (en) Method for constructing neural network
Lin et al. Neurofuzzy-model-following control of MIMO nonlinear systems
JP3168204B2 (en) Network configuration data processing device
JPH05101028A (en) Integral decision method for plural feature quantity
Costa et al. Initialization of supervised training for parametric estimation
Wouwer et al. On the use of simultaneous perturbation stochastic approximation for neural network training
JPH09174128A (en) Method for controlling shape of rolled stock
JPH0233687A (en) Neural network learning method for recognizing multi-font character
JP3262340B2 (en) Information processing device
JP3412700B2 (en) Neural network type pattern learning method and pattern processing device
EP0450521B1 (en) A learning method for a data processing system
Chen et al. Adaptive control of a class of nonlinear systems using neural networks
JP3034372B2 (en) Neurocomputer
JPH09138786A (en) Learning device for neural network
JPH06175999A (en) Neurocomputer
JPH11232244A (en) Neural network, its learning method and neuro-fuzzy controller
JPH05303645A (en) Picture recognition device
JPH06175998A (en) Time series prediction method
JP3232597B2 (en) Neural network learning device
JPH04285293A (en) Neural type optimum gain auto-tuning method of small diameter tunnel robot
Patyra et al. Processing of incomplete fuzzy data using artificial neural networks

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees