JPH11232244A - ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置 - Google Patents

ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置

Info

Publication number
JPH11232244A
JPH11232244A JP10028346A JP2834698A JPH11232244A JP H11232244 A JPH11232244 A JP H11232244A JP 10028346 A JP10028346 A JP 10028346A JP 2834698 A JP2834698 A JP 2834698A JP H11232244 A JPH11232244 A JP H11232244A
Authority
JP
Japan
Prior art keywords
learning
neural network
layer
output
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10028346A
Other languages
English (en)
Inventor
Yasunori Katayama
恭紀 片山
Susumu Kitani
進 木谷
Takashige Watabiki
高重 渡引
Shinji Yamazaki
伸治 山崎
Eiji Adachi
英二 安達
Satoru Hattori
哲 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Information and Control Systems Inc
Original Assignee
Hitachi Ltd
Hitachi Information and Control Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Information and Control Systems Inc filed Critical Hitachi Ltd
Priority to JP10028346A priority Critical patent/JPH11232244A/ja
Publication of JPH11232244A publication Critical patent/JPH11232244A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【課題】従来の階層型ニューラルネットワークは0/1
によるパターン分離が主で、中間的なパターン成分の安
定な抽出ができなかった。本発明はパターンの成分量を
安定に抽出できるニューラルネットワークを提供するこ
とにある。 【解決手段】階層型ニューラルネットワーク7の学習機
構8にシグモイド関数の傾きを直接的に変更する傾き決
定機構11を付設し、重みやしきい値とともに傾きを変
えながら学習を行なうことで、中間値の精度の向上と処
理の高速化を達成した。これにより、ニューラルネット
ワーク3から要求精度に応じたアナログ値をファジィ制
御機構4に入力できるので、形状パターン制御などの連
続制御が可能になる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はニューラルネットワ
ークに係わり、特にニューロ・ファジィ制御装置に好適
なパターン成分を学習するニューラルネットの学習方法
に関する。
【0002】
【従来の技術】ファジイ制御は人間の感覚や経験的知識
を基にした定性的な操作に適している。たとえば、空調
の制御はサンプリングした温度や湿度に対し、予め設定
している「寒い/適温/暑い」や「乾燥/適湿/湿潤」
のメンバーシップ関数より定性的な確信度を求め、適用
できるファジィルールの後件部の制御を実行する。
【0003】同様に、操作が定性的となる制御に、圧延
や機械加工等での形状制御がある。しかし、形状パター
ンは分布した量となるので、スカラー量を入力とするフ
ァジィ制御では扱えない。
【0004】そこで、本発明者等は特開平2−2442
03号に開示のように、ニューラルネットワークとファ
ジィ制御装置を組み合わせて、ニューラルネットワーク
にパターン成分を抽出させ、その成分量に適したファジ
ィルールで制御する方式を提案した。これは多数のセン
サの組み合わせのパターンを分類して、制御を行う全く
新しい方式であり、圧延機の形状制御やエレベータの群
管理等に一部適用されている。
【0005】
【発明が解決しようとする課題】従来の階層型ニューラ
ルネットワークは、ニューロン出力を演算するシグモイ
ド関数が0/1の出力を求めるものであり、どの出力端
のパターンに「含まれるか」を判断する分離型であっ
た。このため、中間値による連続制御を行なうファジィ
制御の入力としては適さなかった。
【0006】これに対し、特開平2−244203号に
記載のニューラルネットワークは、パターン成分として
の中間値を抽出し、ファジィルールへの入力情報として
いる。しかし、ニューラルネットの学習は荷重係数を変
更する従来方式によるため、学習パターン数が多い場合
やアナログ精度を要求される場合は対応が困難になる。
【0007】また、本発明者等は、特開平5−2651
1号に開示しているように、ある学習パターンとその遷
移と逆向きのパターンを用意し、両者の組合せの比率を
段階的に変更しながら、あるパターンからその逆向きパ
ターンの間の中間値を学習する方法を提案した。これは
ニューラルネットワークのもつ補間能力によって可能に
なる。しかし、この学習方法はパターン数が多くなるた
め学習に時間がかかるだけでなく、XORのパターンな
どのように収斂が困難になる場合がある。
【0008】さらに、ニューラルネットワークの一般的
な学習の高速化手法として、前回修正分を今回修正に反
映するモーメント法が知られている(「入門と実習ニュ
ーロコンピーュタ(中野馨他著、技術評論社、平成1年
刊)」)。しかし、このモーメント法は、予め設定した
シグモイド関数の傾きが不適当な場合に収斂しないとい
う問題があった。
【0009】本発明の目的は、上記したような従来のニ
ューラルネットにおける学習方法の問題点を克服し、中
間値を精度よくかつ高速に学習できるニューラルネット
とその学習方法、及びそれを適用したニューロ・ファジ
ィ制御装置を提供することにある。
【0010】
【課題を解決するための手段】本発明は、従来のニュー
ラルネットワークの学習パラメータである荷重係数やし
きい値に、シグモイド関数の傾き(μ)を加え、学習の
自由度を大きくすることによって、多数のパターンの組
合せによる中間値の学習を確実かつ高速に収斂させ、ア
ナログの要求精度に対処できるようにしたものである。
【0011】上記目的は、入力層、少なくとも1つの中
間層及び出力層からなる階層型ニューラルネットワーク
に、学習用の入力データを前記入力層に与えたときの前
記出力層の出力と教師データとの偏差による誤差が許容
範囲となるように、各層のパラメータを最適化するニュ
ーラルネットワークの学習方法において、前記誤差が許
容範囲を越えるときに、各層のニューロン毎の入力また
は出力の演算のパラメータである重み係数(ω)、しき
い値(θ)とともに、シグモイド関数の傾き(λ)を変
更して、学習処理を繰り返すことにより達成される。
【0012】前記誤差は前記出力層のニューロン毎の偏
差の自乗和(Ep)として求め、かつ最急傾斜法によ
り、前記パラメータに対するEpの傾き(微分値;∂E
p/∂ω,∂Ep/∂θ,∂Ep/∂λ)から各パラメー
タの変更量(△ω,△θ,△λ)を求めることを特徴と
する。
【0013】また、本発明のニューラルネットワーク
は、入力層、少なくとも1つの中間層及び出力層からな
る階層型ニューラルネットワークと、各層のパラメータ
を最適化する学習手段と、学習用入力データと教師デー
タを対とする複数組の学習データを記憶するメモリと、
学習処理と類推処理を切り替える切替手段を備え、前記
学習手段が、前記パラメータである各層のニューロン毎
の重み係数、しきい値及び傾きの各変更量を求めるパラ
メータ決定手段を有していることを特徴とする。
【0014】前記ニューラルネットワークにおいて、前
記学習用入力データの任意の1つであり、複数の入力信
号の組合せからなるパターンを類似度に応じて変形し、
この変形後のパターンを学習用入力データ、前記類似度
を教師データとして用意し、前記学習手段により、前記
階層型ニューラルネットワークが変形前のパターンに対
し1/0に識別する学習の終了後に、変形後のパターン
に対しその類似度に収斂するように学習し、中間値の安
定な出力を可能にしたことを特徴とする。
【0015】さらに、本発明のニューロ・ファジィ制御
装置は、制御対象と、前期制御対象の状態を計測するセ
ンサと、前期センサ情報の組合せを入力し、予め学習し
た入力の組み合わせに対する中間値を出力するニューラ
ルネットワークと、前記ニューラルネットワークの出力
と定性的なルールを用いてファジィ推論を行うファジィ
推論手段と、前記推論手段の出力を受け、アクチュエー
タを介して前記制御対象を所望の状態へ制御する制御手
段からなるニューロ・ファジィ制御装置において、前記
ニューラルネットワークは、前記中間値を許容誤差内の
精度で出力できる学習手段を有し、前記ファジィ推論手
段が前記ニューラルネットワークからの前記中間値を入
力して連続制御を行なうことを特徴とする。
【0016】前記中間値は、予め学習した入力の組み合
わせパターンの成分量であり、前記ニューラルネットワ
ークは、入力パターンの分布変化に応じたパターンの成
分量を抽出することを特徴とする。
【0017】
【発明の実施の形態】以下、本発明の実施形態について
図面を参照しながら詳細に説明する。図1は、一実施例
のニューロ・ファジィ制御システムの構成図を示す。制
御対象1の状態を検出するセンサ2、制御対象1の状態
を変化させるアクチュエータ6、センサ2の信号を入力
するニューラルネットワーク3、その出力を定性的なル
ールと突き合わせてファジィ推論し、推論結果に基づく
制御指令を出力するファジィ推論機構4、制御指令によ
り制御対象1を所望の状態へ制御する操作量をアクチュ
エータ6に出力する制御機構5から構成される。学習デ
ータ用メモリ13は学習用の入力データと教師データの
対が複数組、パラメータ用メモリ14は学習機構8で最
適化された各パラメータがそれぞれ記憶される。
【0018】ニューラルネットワーク3は、入力の組み
合わせから予め学習されているパターンの類似度を出力
する階層型ニューラルネットワーク7、ニューラルネッ
トワーク7の重み、しきい値、傾きを変化させながら、
学習データを入力したときの出力の自乗誤差を最小に制
御する学習機構8から構成される。
【0019】学習機構8は重み係数決定機構9と、しき
い値決定機構10と、傾き決定機構11及び学習の準備
から実行の全般を制御する学習制御機構12を有してい
る。重み係数決定機構9及びしきい値決定機構10のパ
ラメータの変更方式は周知で、たとえば最急傾斜法等を
用いた決定方法がある(「入門と実習ニューロコンピー
ュタ(中野馨他著、技術評論社、平成1年刊、pp40
−84)」)。本実施例に特有な傾き決定機構11は、
ニューラルネットワーク7の出力を規定するシグモイド
関数の傾きを、最急傾斜法にしたがって後述のように決
定する。
【0020】ここで、最急傾斜法とはニューラルネット
ワークのパラメータを微少変化させ、誤差の2乗和を変
化させたときに、誤差関数のパラメータの変化率である
傾きが最大になるようにパラメータを変える周知の手法
である。たとえば、着目する重み係数ωを上の方向へ微
小変動させ、その結果、偏差値が変化する方向をみて、
減少する方向へ係数ωを移動する。その場合の移動量は
偏差値の変化が大きい時は大きく、変化が小さいときは
小さくなる。
【0021】さらに、本実施例では収斂を速めるために
導入し、経験的に設定される加速係数αω(1.0以
下)を用いる手法も周知である。そして、出力層に最も
近い中間層から順次、入力層に近い中間層へと係数ωを
変更し、各層の変更が終了した時点で学習データの突合
せを再度行ない、誤差が許容範囲になるまで繰り返す。
【0022】なお、最急傾斜法における誤差関数のパラ
メータの変化率である「傾き」と、シグモイド関数の形
状を決定するパラメータの「傾き」とは異なる。本明細
書中では、特に断らない場合の「傾き」は、シグモイド
関数の形状を決める「傾き」を指す。
【0023】図2に、階層型ニューラルネットの概念図
を示す。ニューラルネットワーク7は、入力iiiが直
接入力し入力層を構成するニューロン711,712,713、
入力層の出力を受けて中間層を構成するニューロン72
1,722,723、及び中間層の出力を受けて出力層を構成
するニューロン731,732,733から構成され、出力層か
ら外部(ここでは、ファジィ推論機構4)へと出力す
る。以下の説明では、入力層のニューロンの数がl(L
の小文字)個、中間層のニューロンの数がm個、出力層
のニューロンの数がn個とする。
【0024】図3に、中間層を例にしたニューロンの動
作の説明図を示す。中間層のニューロン722には、入力
層のニューロン712の出力iiが荷重係数vj,iを介して
入力される。ニューロン722の処理741は入力されるデー
タの総和Ujを式2で求める。また、処理742は入力の総
和Ujから式1で示すシグモイド関数を用いて出力hj
求める。
【0025】
【数1】
【0026】式2の荷重係数vと閾値θは従来と同じパ
ラメータであるが、λjはシグモイド関数の勾配を直接
的に変化させる傾き係数である。
【0027】次に、学習機構8による学習方法を説明す
る。学習用データは、ニューラルネット7のl個の組か
らなる入力データ(ii1,ii2,…,iii,…,iil)と、該入
力がなされたときの理想的な出力であるn個の組からな
る教師信号(T1,T2,…,Tk,…,Tn)を一対として、
複数組のデータがメモリ13に用意されている。
【0028】今、ニューラルネット7にp番目の学習用
データが入力された状態を考える。ニューラルネット7
の入力データはii1,ii2,…,iii,…,iilである。この入
力を受けて、ニューラルネット7はO1,O2,…,Ok,…,
nの出力を得る。このときの誤差は式3によって、ニ
ューラルネット7の出力Oと教師信号Tの偏差の自乗の
総和(Ep)として求める。
【0029】
【数2】
【0030】各組の学習用データの誤差の自乗の総和E
pが最小になり、許容値e以下になったときに学習が終
了する。
【0031】次に、パラメータの最適化のアルゴリズム
を数式を用いて説明する。従来からの荷重係数ω、閾値
gと、本発明により追加された傾きμをパラメータは、
出力層、中間層及び入力層の順に、最急傾斜法によって
変更しながら、許容誤差に収斂するまで学習する。
【0032】
【数3】
【0033】式4はシグモイド関数で表わした出力層の
k端の出力Ok、式5は出力層のニューロン732(k)に
入力されるデータの総和Skを表わし、前述の式1、式
2に対応する。
【0034】式6から式11は、出力層の各パラメータ
の演算における共通項を事前に計算する。すなわち、閾
値γk、傾きμk、及び、j番目の中間層ニューロンから
k番目の出力層のニューロンに対する結合係数となる荷
重係数wkjの変更量を求めるための準備作業である。
【0035】
【数4】
【0036】式6は式3、式7は式4の微分で、Tk
k、Skのデータから求まる。式8〜式10はそれぞれ
式5の微分で、荷重係数w、しきい値γ及び傾きμに対
するSkの傾きが求められている。式11によるφkが各
パラメータ演算の共通項であり、式6、式7及び式9の
積によって求まる。
【0037】学習制御機構12による式3〜式11の計
算結果を受けて、しきい値γ、荷重係数w及び傾きμの
変更量が求められる。しきい値決定機構10は現状のし
きい値γkの変更量△γkを式12により、荷重係数決定
機構9は現状の荷重係数wkの変更量△wkを式13によ
り、そして傾き決定機構11は現状の傾きμkの変更量
である△μkを式14によりそれぞれ演算する。
【0038】
【数5】
【0039】ここで、式12のαγ、式13のαw、式
14のαμは、それぞれ閾値の収斂を制御する加速係
数、荷重係数の収斂を制御する加速係数及び傾きの収斂
を制御する加速係数で、それぞれ1.0以下の値が経験
的に設定される。
【0040】次に、中間層の学習方法を説明する。ここ
では、中間層の代表としてj番目のニューロンを考え
る。式15〜式22は閾値θj、傾きλj、及びi番目の
入力層ニューロンからj番目の中間層ニューロンに対す
る結合係数となる荷重係数wjiを最適化するときの準備
作業である。
【0041】
【数6】
【0042】
【数7】
【0043】ここで、式15はシグモイド関数で表わし
た中間層のj番目のニューロンの出力hj、式16はj
番目のニューロンに入力されるデータの総和Ujを表わ
し、出力層における式4,式5に対応する。
【0044】また、式17〜式22はそれぞれ出力層に
おける式6〜式11に対応する。ただし、出力層の式6
では出力Okによる誤差Epの傾き(∂Ep/∂Ok)を求
めたが、中間層の式17では出力層のk番目のニューロ
ンの入力の総和Skと、このkニューロンと荷重係数w
kjを介して結合する中間層のj番目のニューロンの出力
jとの微分関係を(∂Sk/∂hj)求めている。これに
より、出力層でパラメータの変更の影響が中間層に反映
される。
【0045】学習制御機構12による式15〜式17の
計算結果を受けて、中間層のしきい値θ、荷重係数v及
び傾きλの各変更量が、それぞれ式23〜式25により
求められる。
【0046】
【数8】
【0047】ここで、式23のαθ、式24のαv、式
25のαλはそれぞれ加速係数である。 次に、入力層
のしきい値ζと傾き係数εを最適化するときの演算につ
いて説明する。ここでは、入力層の代表としてi番目の
ニューロンを考える。事前処理として、学習制御機構1
2が式26〜式30の計算を実行する。
【0048】
【数9】
【0049】
【数10】
【0050】ここで、式26はシグモイド関数で表わし
た入力層のi番目のニューロンの出力ii、式27はi
番目のニューロンに入力されるデータの総和Yiを表わ
し、中間層における式15,式16に対応する。また、
式28〜式30はそれぞれ中間層における式18、式1
9及び式21に対応する。
【0051】学習制御機構12による式26〜式30の
計算結果を受けて、入力層のしきい値ζと傾き係数εの
変更量が、それぞれ式31,式32により求められる。
【0052】
【数11】
【0053】ここで、式31のαζ、式32のαεはそ
れぞれ加速係数である。
【0054】以上、本実施例によるニューラルネットワ
ークのパラメータの演算方法を数式にしたがって説明し
た。次に、ニューラルネットワークの学習方法を、処理
手順にしたがって具体的に説明する。
【0055】図4に、ニューラルネットワークの概略処
理のフロー図を示す。ニューラルネットワーク3は、入
力層の入力iiiを受けて、入力層の式27,式26、中
間層の式16,式15、及び出力層の式5,式4を演算
して、ニューラルネットの出力Okを求める類推処理
(S2)と、学習データの自乗誤差が最小となるように
パラメータを最適化する処理(S3)を、切り替えて実
行する(S1)。なお、学習側に切り替えられた場合、
ニューラルネットワーク7の出力はファジィ推論機構4
には出力されず、図示していない突合せ手段へ入力され
る。これにより、教師データとの偏差及び全出力の自乗
誤差の総和の算出が可能になる。
【0056】図5に、パラメータ最適化処理のフロー図
を示す。パラメータ最適化処理(S3)は学習の前処理
として、入力層、中問層、出力層の重み係数、しきい値
及び傾きを、乱数によって初期設定する(S31)。
【0057】次に、未学習の学習データが残っているか
をチエックし(S32)、学習が完了していない時は学
習用の入力データと教師データの一組をメモリ13から
読み出す(S33)。そして、ニューラルネット7に入
力データを与えて、出力Okを求める類推処理S2を実
行する(S34)。これにより、入力層の出力値i
i、中間層の出力値hj及び出力層の出力値Okの全て
が求まる。
【0058】次に、出力Okと教師データの偏差による
自乗誤差の和Epを式3により求め、許容誤差e以下か
を判定する(S35)。Ep≦eとなれば、ステップS
32に戻り、次の学習データによる学習へ移行する。一
方、Ep>eであれば、出力層のパラメータ決定処理
(S36)、中間層のパラメータ決定処理(S37)、
入力層のパラメータ決定処理(S38)を行ない、各層
のパラメータを変更したのち、ステップS34の類推処
理に戻り、Ep≦eとなるまで繰り返す。
【0059】各学習データが許容誤差e以内に収斂し、
用意した全ての学習データについてのパラメータの最適
化が終了すると、入力層、中問層、出力層の重み係数、
しきい値及び傾きを、パラメータ用メモリ14へ格納す
る(S39)。
【0060】図6に、出力層のパラメータ決定処理のフ
ロー図を示す。ステップS36が起動されると、出力層
のニューロン数nまで、k=1〜nに順に以下の処理を
繰り返す(S361)。
【0061】まず、パラメータ演算の準備として、式6
〜式11により共通項φk(∂Ep/∂Ok・∂Ok/∂Sk
・∂Sk/∂γk)の値を求める(s362)。次に、式
12により、φkに加速係数αγを乗じてしきい値の変
化分△γkを算出し、△γkを前回値γk-1に加算して今
回値γkを決定する(S363)。同様に、式13によ
り重み係数の変化分△wkを算出し、前回値wk-1に加算
して今回値wkを求め(S364)、さらに式14によ
り傾きの変化分△μkを算出し、前回値μk-1に加算して
今回値μkを求める(S364)。
【0062】中間層のパラメータは出力層と同様にして
決定される。詳細な説明は省略するが、式17〜式22
により共通項φjの値を求め、式23によりしきい値の
変化分△θj、式24により重み係数の変化分△vj、式
25により傾きの変化分△λjを求め、各パラメータの
前回値に各変化分を加算して今回値を求める。入力層の
場合も同様である。
【0063】以上のように、本実施例によるニューラル
ネットワークの学習方法によれば、学習のパラメータに
シグモイド関数の勾配を変更する傾きを追加したので、
パターン成分を抽出する等の中間値の学習精度が向上
し、かつ処理を高速化できる。
【0064】図7は、パターン成分を抽出する学習デー
タの生成の一例を示す説明図である。予めパターン1
と、その遷移方向に対称的なパターンmの学習パターン
を用意している。一般に、ニューラルネットワークはあ
る程度の補間能力を有しているので、パターン1,mを
学習した後に、両パターンの加算による中間パターンを
入力とした場合、パターン1に対応するニューロンの出
力、パターンmに対応するニューロンの出力はそれぞれ
約0.5となる。
【0065】そこで、パターン1とその対称パターンm
に、それぞれ類似度と呼ばれる係数G1、G2を乗算して
加算した合成パターンを生成する。この合成パターンの
x座標群とy座標群を学習用入力データ、類似度の係数
1、G2を教師データとする。係数Gを変えて、中間値
の学習のための複数の学習データを作成し、図5に示し
た学習処理を実行する。なお、パターン間の合成によら
ず、学習済みの特定パターンに対し類似度を変えた複数
の変形パターンを作成し、変形パターンと類似度の組を
学習データとしてもよい。
【0066】これによれば、パターン1〜m間のパター
ン変化に沿って、複数の補間パターンを学習できるの
で、ニューラルネットワークから中間値として出力され
るパターン類似度の精度を向上できる。補間の学習デー
タ多いほど中間値の精度が向上することは言うまでもな
い。
【0067】図8は、ニューラルネットワークの学習結
果を示す特性図である。シグモイド関数の傾きを変える
本実施例と、傾きを変えない従来のアルゴリズムによる
学習結果を示している。図示を省略しているが、横軸の
xは2次元のベクトル量、縦軸のyは1次元の値で、シ
グモイド関数は3次元の平面を表わしている。
【0068】座標(x1,y1)の点102と、座標(x2,y
2)の点103の中間値を教師信号とし、x1やx2を入力
したときの学習結果を、シグモイド関数の曲線の推移で
示すと、従来は実線、本実施例は破線のようになる。従
来の傾きを変えない場合、出発点のシグモイド関数が1
04から重み係数やしきい閾値を変化させると、ある断
面でみればシグモイド関数は曲線105,106と平行
移動する。しかし、誤差が最小になる曲線106では、
誤差e1(≒y1)、e2(≒y2)が残ったままとなり、最
終的に許容誤差範囲に収斂しないこともある。もちろ
ん、重み係数の可変によって、結果的にはシグモイドの
傾きも変わるが、直接的な操作でないために学習に時間
がかかり、また収斂できないケースも生じる。
【0069】一方、直接に傾きを変える本実施例の場
合、シグモイド関数は曲線107のように変形できるの
で、入力x1のとき出力はy1、入力x2のとき出力y2
なり、誤差eを最小化することができる。さらに、学習
は最急傾斜法の繰り返し演算なので、誤差を少なくでき
ることは演算回数を低減できることにもなる。
【0070】本実施例によれば、中間値の学習を効率よ
く実施できるので、従来のニューラルネットワークのよ
うに0/1のデジタル的な利用のみならず、中間値を必
要とするアナログ的な利用が可能になる。たとえば、ニ
ューラルネットワークから中間値の出力を、直接ファジ
ィ制御(入力が連続量)に入力して、ファジィ推論を実行
することができる。
【0071】図9は、本実施例のニューロ・ファジィ制
御装置をセンジミアミルの形状制御に適用した場合の説
明図である。制御対象1であるセンジミアミルで、圧延
板の幅方向に設けた複数のセンサ2による形状信号がサ
ンプリング時間毎に取り込まれる。形状信号は板幅方向
の形状偏差(板厚偏差)で、ニューラルネットワーク3
に入力される。階層型ニューラルネットワーク7は上記
した学習機構により、パターン成分を許容誤差以内に学
習済みである。
【0072】ニューラルネットワーク3は入力された形
状信号の入力波形に対し、例えば右端部の大きい波形成
分が70%、両端部の大きい波形成分が30%と認識
し、該当パターンを100%と認識する出力層のニュー
ロンから、それぞれ0.7と0.3をファジィ制御装置
の推論機構4に出力する。ファジイ推論機構4は推論結
果として、左端部の大きい波形に該当するルールと両端
部の大きい波形に該当するルールを起動し、AS‐Uロ
ールの70%操作と、上ラテラルシフトと下ラテラルシ
フトの30%操作を指令し、制御機構5から指令に応じ
た操作量がアクチュエータ6に出力される。以下に、各
部の詳細な動作を説明する。
【0073】図10にセンジミアミルの概略の構造を示
す。センジミアミルは圧延材の形状を良好にするため
に、5cm程度の小径のワークロールを採用している。
この小径のロールに数百〜千数百トンの圧延荷重を加
え、さらに圧延方向(側面図の横方向)に圧延材を数十
トンの張力で引っ張っている。ワークロールには横方向
に飛び出す力が働くので、これを押えるために上2個、
下2個の第1中間ロールで押え、第1中間ロールを上下
各3個の第2中間ロールで押え、さらに第2中間ロール
を上下各4個のバックアップロールで押え、このバック
アップロールに力を加えて所望の板厚形状を得る構造と
なっている。
【0074】バックアップロールのうち上側の2個はA
S‐Uロールと呼ばれ、特別な構造となっている。すな
わち、ロールが複数に分割され、個々のロールはベアリ
ングを介して軸止され、またサドル(斜線部)が取り付
けられている。個々のサドルは機械的に上下でき、任意
のサドルを上下させることで軸を強制的に曲げることが
出来る。その結果、第2中間ロールに加わる荷重分布が
変化し、第1中間ロール、ワークロールを介して、最終
的には圧延材の荷重分布を変えて、形状を変化させるこ
とが出来る。
【0075】また、第1中間ロールは端部にテーパが付
いており、かつ左右に移動できる構造となっている。例
えば、上側の2個の第1中間ロールは右側にテーパがあ
り、ロールを左側に移動(ラテラルシフト)すると、圧
延材にかかる力が弱くなり、右側の板端部の板厚が厚く
なる。同様に、下側の2個の第1中間ロールは、左側の
板端部の板厚を変更する。
【0076】このように、センジミアミルは構造的に複
雑なため力の伝搬をモデル化するのが難しく、実際の操
業ではオペレータの勘と経験に頼った運転がなされてい
る。図11は、オペレータの操作を模式化した説明図で
ある。オペレータはセンサからの形状信号の波形を観察
し、自身が記憶している複数の基準波形と対照する。こ
の基準波形はアクチュエータ操作で補正可能な種々の形
状波形のパターンである。そして、センサ出力による信
号波形に最も近い基準波形を判断し、その基準波形に対
応し、経験的に取得したノウハウであるアクチュエータ
操作を行なう。
【0077】経験的なノウハウは、例えば「信号波形の
左端部が大きければ、No.2のAS‐Uロールを操作す
る」、「信号波形の両端部が大きければ、上側及び下側
のラテラルシフトを操作する」などである。図示例の場
合、オペレータは形状センサの信号波形から左端部が大
きいと判断し、No.2のAS‐Uロールを操作する。その
結果、左端部の大きい形状は補正されて、次に両端部の
大きい形状が顕在化する。そこで、両端部を低減するラ
テラルシフトを操作する。このように、オペレータは入
力信号に最も近い基準波形の対応操作を少しずつ加えて
その成分を低減し、このような操作を繰り返して所望の
形状へ近付けていく。
【0078】オペレータは形状センサの入力信号から類
似している1,2の波形を判断はできるが、その成分
(類似度)までは抽出できない。従って、アクチュエー
タの操作は少しずつ段階的に行なわざるを得ない。しか
し、本実施例のニューラルネットワークによれば、オペ
レータの記憶している基準波形をパターン化し、各パタ
ーンの成分まで学習しているので、抽出した成分に応じ
かつ複数のアクチュエータを同時に操作できる。
【0079】図12に、ニューロ・ファジィ形状制御の
シミュレーションの一例を示す。同図(a)は入力層
(ニューロン数34個)に加えられた形状信号である。
(b)はパターン1〜パターン8に対応付けられた出力
層(ニューロン数8個)の模式図を示す。パターン成分
の認識の結果は出力層の正方形に含まれる斜線部の面積
で示している。左端部の凸となるパターン1の確信度が
40%、左端部の高い台形となるパターン7の確信度が
60%と抽出された。この結果、ファジィ推論部はパタ
ーン1の出力に応じてNo.2のAS‐Uロールを40%、
上ラテラルシフトを60%を操作する指令を発行する。
【0080】このようにして、ニューラルネットワーク
とファジィ制御を組み合わせて制御することにより、パ
ターン的に分布した状態量を入力として、アクチュエー
タの連続制御を可能にする具体的な指令を発生できるよ
うになった。
【0081】
【発明の効果】本発明によれば、階層型ニューラルネッ
トワークの学習を、従来からのしきい値及び重み係数と
ともにシグモイド関数の傾きを変えて行なうので、中間
値の誤差が少なく、また学習の計算回数を低減すること
ができる。
【0082】本発明によれば、ニューラルネットワーク
から精度要求に応じたアナログ値を出力できるので、フ
ァジィ制御装置と結合した連続制御が可能になる。これ
により、分布量となる形状変化を入力とする形状制御な
どが容易に実現できる。
【図面の簡単な説明】
【図1】本発明の一実施例によるニューロ・ファジィ制
御システムの構成図。
【図2】階層型ニューラルネットワークの構成を説明す
る概念図。
【図3】中間層のニューロンの動作を示す説明図。
【図4】ニューラルネットワークの概略動作を示すフロ
ー図。
【図5】一実施例によるニューラルネットワークの学習
処理を示すフロー図。
【図6】出力層パラメータ決定処理を示すフロー図。
【図7】パターン成分を抽出する学習データの生成の一
例を示す説明図。
【図8】ニューラルネットワークの従来と本実施例によ
る学習結果を対比的に説明する特性図。
【図9】図1のニューロ・ファジィ制御装置をセンジミ
アミルの形状制御に適用した場合の説明図。
【図10】センジミアミルの概略の構造図。
【図11】センジミアミルのオペレータの操作を模式化
した説明図。
【図12】ニューロ・ファジィ形状制御シミュレーショ
ンの説明図。
【符号の説明】
1…制御対象、2…センサ、3…ニューラルネットワー
ク、4…ファジィ推論機構、5…制御機構、6…アクチ
ュエータ、7…階層型ニューラルネットワーク、8…学
習機構、9…重み係数決定機構、10…しきい値決定機
構、11…傾き決定機構、12…学習制御機構、13…
学習データ用メモリ、14…パラメータ用メモリ。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 渡引 高重 茨城県日立市大みか町五丁目2番1号 株 式会社日立情報制御システム内 (72)発明者 山崎 伸治 茨城県日立市大みか町五丁目2番1号 株 式会社日立情報制御システム内 (72)発明者 安達 英二 茨城県日立市大みか町五丁目2番1号 株 式会社日立情報制御システム内 (72)発明者 服部 哲 茨城県日立市大みか町五丁目2番1号 株 式会社日立製作所大みか工場内

Claims (6)

    【特許請求の範囲】
  1. 【請求項1】 入力層、少なくとも1つの中間層及び出
    力層からなる階層型ニューラルネットワークに、学習用
    の入力データを前記入力層に与えたときの前記出力層の
    出力と教師データとの偏差による誤差が許容範囲となる
    ように、各層のパラメータを最適化するニューラルネッ
    トワークの学習方法において、 前記誤差が許容範囲を越えるときに、各層のニューロン
    毎のパラメータである重み係数、しきい値とともに、シ
    グモイド関数の傾きを変更し、学習処理を繰り返すこと
    を特徴とするニューラルネットワークの学習方法。
  2. 【請求項2】 請求項1において前記誤差は前記出力層
    のニューロン毎の偏差の自乗和として求め、かつ最急傾
    斜法に基づき、前記パラメータのそれぞれによって微分
    した前記誤差の傾きから各パラメータの変更量を求める
    ことを特徴とするニューラルネットワークの学習方法。
  3. 【請求項3】 入力層、少なくとも1つの中間層及び出
    力層からなる階層型ニューラルネットワークと、各層の
    パラメータを最適化する学習手段と、学習用入力データ
    と教師データを対とする複数組の学習データを記憶する
    メモリと、学習処理と類推処理を切り替える切替手段を
    備えるニューラルネットワークにおいて、 前記学習手段は、前記パラメータである各層のニューロ
    ン毎の重み係数、しきい値及び傾きの各変更量を求める
    パラメータ決定手段を有していることを特徴とするニュ
    ーラルネットワーク。
  4. 【請求項4】 請求項3において、 前記学習用入力データの任意の1つであり、複数の入力
    信号の組合せからなるパターンを類似度に応じて変形
    し、この変形後のパターンを学習用入力データ、前記類
    似度を教師データとして用意し、 前記学習手段により、前記階層型ニューラルネットワー
    クが変形前のパターンに対し1/0に識別する学習の終
    了後に、変形後のパターンに対しその類似度に収斂する
    ように学習し、中間値の安定な出力を可能にしたことを
    特徴とするニューラルネットワーク。
  5. 【請求項5】 制御対象と、前期制御対象の状態を計測
    するセンサと、前期センサ情報の組合せを入力し、予め
    学習した入力の組み合わせに対する中間値を出力するニ
    ューラルネットワークと、前記ニューラルネットワーク
    の出力と定性的なルールを用いてファジィ推論を行うフ
    ァジィ推論手段と、前記推論手段の出力を受け、アクチ
    ュエータを介して前記制御対象を所望の状態へ制御する
    制御手段からなるニューロ・ファジィ制御装置におい
    て、 前記ニューラルネットワークは、前記中間値を許容誤差
    内の精度で出力できる学習手段を有し、前記ファジィ推
    論手段が前記ニューラルネットワークからの前記中間値
    を入力して連続制御を行なうことを特徴とするニューロ
    ・ファジィ制御装置。
  6. 【請求項6】 請求項5において、 前記中間値は、予め学習した入力の組み合わせパターン
    の成分量であり、前記ニューラルネットワークは、入力
    パターンの分布変化に応じたパターンの成分量を抽出す
    ることを特徴とするニューロ・ファジィ制御装置。
JP10028346A 1998-02-10 1998-02-10 ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置 Pending JPH11232244A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP10028346A JPH11232244A (ja) 1998-02-10 1998-02-10 ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10028346A JPH11232244A (ja) 1998-02-10 1998-02-10 ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置

Publications (1)

Publication Number Publication Date
JPH11232244A true JPH11232244A (ja) 1999-08-27

Family

ID=12246051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10028346A Pending JPH11232244A (ja) 1998-02-10 1998-02-10 ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置

Country Status (1)

Country Link
JP (1) JPH11232244A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005200730A (ja) * 2004-01-19 2005-07-28 Itagaki Kinzoku Kk レーザー光照射による酸化膜形成方法および装置
JP2008546996A (ja) * 2005-06-16 2008-12-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 分類学習のための測定データの変換
JP5147085B2 (ja) * 2007-08-09 2013-02-20 国立大学法人 岡山大学 演算方法及び演算装置
JP2015534172A (ja) * 2012-09-14 2015-11-26 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation ニューラル・コア回路

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005200730A (ja) * 2004-01-19 2005-07-28 Itagaki Kinzoku Kk レーザー光照射による酸化膜形成方法および装置
JP2008546996A (ja) * 2005-06-16 2008-12-25 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 分類学習のための測定データの変換
JP5147085B2 (ja) * 2007-08-09 2013-02-20 国立大学法人 岡山大学 演算方法及び演算装置
JP2015534172A (ja) * 2012-09-14 2015-11-26 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation ニューラル・コア回路

Similar Documents

Publication Publication Date Title
Jin et al. Stable dynamic backpropagation learning in recurrent neural networks
JPH04127205A (ja) プロセス制御装置
CN110806759A (zh) 一种基于深度强化学习的飞行器航线跟踪方法
CN101452258A (zh) 一种与模型无关的自适应控制器及其控制方法
CN113093526B (zh) 一种基于强化学习的无超调pid控制器参数整定方法
JP2005518484A (ja) 繊維配向のオンライン閉ループ制御
JPH04262453A (ja) ニュ−ロ学習制御方法及び装置
CN115374933A (zh) 一种多节点探测器着陆行为智能规划及决策方法
JPH04127908A (ja) 圧延機における形状制御方法および制御装置
JPH11232244A (ja) ニューラルネットワーク、その学習方法およびニューロ・ファジィ制御装置
Liu et al. A neural dynamic programming approach for learning control of failure avoidance problems
US6768927B2 (en) Control system
CN114510864A (zh) 一种基于K-means聚类算法的神经网络预报轧制力的预报方法
JP3012716B2 (ja) プロセス制御方法及びその制御装置
CN111290282A (zh) 火电机组协调系统的预见式预测控制方法
JP3040901B2 (ja) ニューラルネットワークによる制御方法および内蔵制御装置
CN108319146A (zh) 一种径向基神经网络基于离散粒子群训练的方法
CN114489095A (zh) 一种应用于变体飞行器的类脑脉冲神经网络控制方法
JP2674167B2 (ja) 神経回路網モデルを用いたプロセス制御方法
JPH06262234A (ja) プラント制御装置及び方法
Dadios et al. Application of neural networks to the flexible pole-cart balancing problem
JP2738343B2 (ja) 圧延機の形状制御方法および装置
JP2624880B2 (ja) 制御装置及び制御方法
Shaout et al. Fuzzy logic based modification system for the learning rate in backpropagation
KR19980075699A (ko) 신경회로망을 이용한 냉간압연강판의 형상제어방법

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20031125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040107

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040302