JPH0454685A - 状熊学習装置及び状態推定装置 - Google Patents

状熊学習装置及び状態推定装置

Info

Publication number
JPH0454685A
JPH0454685A JP2165199A JP16519990A JPH0454685A JP H0454685 A JPH0454685 A JP H0454685A JP 2165199 A JP2165199 A JP 2165199A JP 16519990 A JP16519990 A JP 16519990A JP H0454685 A JPH0454685 A JP H0454685A
Authority
JP
Japan
Prior art keywords
data
learning
state
information processing
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2165199A
Other languages
English (en)
Inventor
Koichi Matsuda
浩一 松田
Naoki Tamura
直樹 田村
Yoshihisa Otsuka
喜久 大塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kobe Steel Ltd
Original Assignee
Kobe Steel Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kobe Steel Ltd filed Critical Kobe Steel Ltd
Priority to JP2165199A priority Critical patent/JPH0454685A/ja
Publication of JPH0454685A publication Critical patent/JPH0454685A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Manufacture Of Iron (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、ある状態と別の状態との相関関係の学習を行
う状態学習装置、及びある状態に基づいて別の状態の推
定を行う状態推定装置に関する。
〔従来技術] ある状態Aと別の状態Bとの間に何らかの相関関係があ
るとき、前記状mAに基づいて状態Bを推定する方法と
して、以下に示すシステムが挙げられる。
一つは、前記状態Aを入力データとし、前記状態Bを出
力データとするようなバンクプロパゲーション型のニュ
ーラルネットワークを用い、前記両者の対応関係を前記
ニューラルネットワークの連結重みを変更することによ
り学習させ、学習後のニューラルネットワークに新たな
状態Aを入力し、その時の出力値を状態Bの推定値とす
るシステムである。
或いは、ツエボ コホ・−ネン教授の提案による自己組
織化特徴マツピングアルゴリズムに基づくニューラルネ
ットワークを用いたシステムである。
これは前記ニューラルネットワークに前記状態Aを入力
して学習させ、前記状態Aに係るNXN個の典型パター
ンを作成すると共に、該作成された典型パターン毎に相
関のある状態Bを予め設定しておく、そして前記学習後
のニューラルネットワークに新たな状態量を入力し、そ
のとき概念上発火したニューロンに割付けられている状
態Bを推定価とするものである。
〔発明が解決しようとする課題〕
ところが、上記したようなバックプロパゲーション型の
ニューラルネットワークでは、設定入力された複数の状
態Aが学習用入力データとして、該学習用入力データの
それぞれに対応する状態Bが教師データとしてそれぞれ
対で学習に供され、前記複数の状態A全体に係るネット
ワークの最終的な連結重みが演算されるため、学習時に
用いた状態Aに含まれないような状jfftA、即ち前
記ニュラルネットワークにとって未知の状態Aが入力さ
れた時、状JIFiBに対する推定精度が悪くなり途方
もない推定を行う場合がある。
他方、上記したような推定精度の低下を回避するために
、学習時に入力される状態Aの数を多く設定すると、当
該ニューラルネットワークはその信号伝播方向と反対に
遡るようにネットワークの重みを変更する逆伝播による
学習アルゴリズムが採用されているので、学習に要する
時間が膨大になって現実的でないといった問題がある。
特に、上記2つのタイプのニューラルネットワークを共
に適用する場合には、上記学習に要する時間が一層大き
な問題となる。
従って、本発明の第1の目的とするところは、学習用の
入力データが多い場合でも、バンクプロパゲーション型
及び自己&[l織化特徹マツピング型のニューラルネッ
トワークの学習に多大な時間を要することのない状態学
習装置を提供することにある。
他方、前記自己組織化特徴マツピング型のニューラルネ
ットワークでは、富亥ニューラルネットワークにとって
未知の状態Aが入力された場合でも、前記いずれかの典
型パターンに特定され、該典型パターンに係る状態Bが
推定値とされるため、途方もない推定を行うことがない
。しかしながら、前記推定値はNXN@類のものしか出
力されず、入力された状態Aが学習時に用いられた状態
Aに近似する中間的な状態であった場合には、前記バッ
クプロパゲーション型のニューラルネットワークを用い
たときと比べて推定精度が悪くなるといった問題があっ
た。
従って、本発明の第2の目的とするところは、バックプ
ロパゲーション型および自己組織化特徴マツピング型の
各ニューラルネットワークにそれぞれの利点を生かして
役割分担させることにより、状態の推定を精度良(行う
ことのできる状態推定装置を提供することにある。
交番こ、多くの学習用の入力データを用いてニューラル
ネットワークの学習を効率良く行い、この学習済のニュ
ーラルネットワークにより上記した如くの状態の推定を
行えば、当該状態の推定をより精度良く行うことができ
る。
そこで、本発明の第3の目的とするところは、多くの学
習用の入力データを用いて効率良く学習済の、バックプ
ロパゲーション型および自己組織化特徴マツピング型の
各ニューラルネットワークにそれぞれの利点を生かして
役割分担させることにより、状態の推定をより精度良く
行うことのできる状態推定装置を提供することにある。
〔課題を解決するための手段] 上記第1の目的を達成するために、第1の発明が採用す
る主たる手段は、ある状態Aと別の状態Bとの相関関係
の学習を行う状態学習装置において、前記状態Aにかか
る一連のデータを構成する入力データ毎に演算重みを付
与し上記入力データと演算重みの積の和に関する関数を
出力すべく格子状に概念上配列された複数の第1情報処
理部と、予め設定された状態Aの学習用の入力データを
前記複数の第1情報処理部に入力し演算することにより
特定された第1情報処理部及びその周辺番地の第1情報
処理部の演算重みを変更し前記第1情報処理部間に演算
重みの重軽の異なる環境を形成して前記学習用の入力デ
ータをこれに対応する第1情報処理部毎に状態Aに対応
した適宜の状態に分類するデータ分類手段とを有する第
1のニューラルネットワークと、データの入力部、演算
部及び出力部を有する複数の第2情報処理部を具備し、
ある第2情報処理部の出力部と他の第2情報処理部の入
力部が前記出力部よりの出力情報に連結重みを付加して
前記入力部に伝達するための連結部を介して連結されて
なる第2のニューラルネットワークと、該第2のニュー
ラルネットワークに前記第1のニューラルネットワーク
により分類された学習用の入力データを入力し、その出
力データが前記分類された学習用の入力データに対応す
る状態Bに係るデータに近接若しくは一致するまで前記
連結重みを変えつつ学習して1.近接若しくは一致した
際の前記連結部の各々の連結重みを決定する第1重み決
定手段とを具備してなることを要旨とする状態学習装置
である。
又、上記第2の目的を達成するために、第2の発明が採
用する主たる手段は、ある状態Aにかかる一連のデータ
に基づいて別の状態Bを推定する状態推定装置において
、データの入力部、演算部及び出力部を有する複数の第
3情報処理部を具備し、ある第3情報処理部の出力部と
他の第3情報処理部の入力部が前記出力部よりの出力情
報に連結重みを付加して前記入力部に伝達するための連
結部を介して連結されてなる第3のニューラルネットワ
ークと、該第3のニューラルネットワークに前記一連の
データを構成する学習用の入力データを入力し、その出
力データが予め設定された教師データに近接若しくは一
致するまで前記連結重みを変えつつ学習して、近接若し
くは一致した際の前記連結部の各々の連結重みを決定す
る第2重み決定手段と、前記入力データ毎に演算重みを
付与し上記入力データと演算重みの積の和に関する関数
を出力すべく格子状に概念上配列された複数の第4情報
処理部と、予め設定された状態Aの学習用の入力データ
を前記複数の第4情報処理部に入力し演算することによ
り特定された第4情報処理部及びその周辺番地の第4情
報処理部の演算重みを変更し前記第4情報処理部間に演
算重みの重軽の異なる環境を形成して前記学習用の入力
データをこれに対応する第4情報処理部毎に状態Aに対
応した適宜の状態に分類するデータ分類手段とを有する
第4のニューラルネットワークと、前記第3のニューラ
ルネットワークに、予め設定された内容の異なる複数の
前記状態Aに係る学習用の入力データを入力し該学習用
の入力データのそれぞれに対応する前記状態Bに係る教
師データを参照しつつ得た前記連結部の各々の連結重み
を格納すると共に、前記第4のニューラルネットワーク
の、前記データ分類手段により分類された学習用の入力
データに対応する演算重み及び状態Bに係るデータを当
該第4情報処理部毎に格納するメモリ手段と、状J!!
i准定時に、新たな状態Aに係る入力データを前記第4
のニューラルネットワークに入力して上記入力データに
対応する第4情報処理部を上記メモリ手段に格納された
演算重みに基づいて特定し、当該入力データが上記メモ
リ手段に格納された演算重みに対応する学習用の入力デ
ータに近似しないと判断されたとき、上記特定された第
4情報処理部若しくはこれに最も近い上記メモリ手段に
格納された演算重みの第4情報処理部に分類された状態
Bに係るデータを出力し、前記入力データが上記メモリ
手段に格納された演算重みに対応する学習用の入力デー
タに近似すると判断されたとき、前記新たな状態Aに係
る一連のデータを前記第3のニューラルネットワークに
入力し上記メモリ手段に格納された連結重みに基づいて
得られた出力データを前記状態Bとして出力する演算手
段とを具備してなることを要旨とする状態推定装置であ
る。
更に、上記第3の目的を達成するために、第3の発明が
採用する主たる手段は、ある状態Aにかかる一連のデー
タに基づいて別の状態Bを推定する状態推定装置におい
て、前記一連のデータを構成する入力データ毎に演算重
みを付与し上記入力データと演算重みの積の和に関する
関数を出力すべく格子状に概念上配列された複数の第1
情報処理部と、予め設定された状J!!iAの学習用の
入力データを前記複数の第1情報処理部に入力し演算す
ることにより特定された第1情報処理部及びその周辺番
地の第1情報処理部の演算重みを変更し前記第1情報処
理部間に演算重みの重軽の異なる環境を形成して前記学
習用の入力データをこれに対応する第1情報処理部毎に
状態Aに対応した適宜の状態に分類するデータ分類手段
とを有する第1のニューラルネットワークと、データの
入力部演算部及び出力部を有する複数の第2情報処理部
を具備し、ある第2情報処理部の出力部と他の第2情報
処理部の入力部が前記出力部よりの出力情報に連結重み
を付加して前記入力部に伝達するための連結部を介して
連結されてなる第2のニューラルネットワークと、該第
2のニューラルネットワークに前記第1のニューラルネ
ットワークにより分類された学習用の入力データを入力
し、その出力データが前記分類された学習用の入力デー
タに対応する状態Bに係るデータに近接若しくは一致す
るまで前記連結重みを変えつつ学習して、近接若しくは
一致した際の前記連結部の各々の連結重みを決定する第
1重み決定手段と、前記第2のニューラルネットワーク
に、予め設定された内容の異なる複数の前記状態Aに係
る学習用の入力データを入力し該学習用の入力データの
それぞれに対応する前記状態Bに係る教師データを参照
しつつ得た前記連結部の各々の連結重みを格納すると共
に、前記第1のニューラルネットワークの、前記データ
分類手段により分類された学習用の入力データに対応す
る演算重み及び状態Bに係るデータを当該第1情報処理
部毎に格納するメモリ手段と、状態推定時に、新たな状
態Aに係る入力データを前記第1のニューラルネットワ
ークに入力して上記入力データに対応する第1情報処理
部を上記メモリ手段に格納された演算重みに基づいて特
定し、当該入力データが上記メモリ手段に格納された演
算重みに対応する上記学習用の入力データに近似しない
と判断されたとき、上記特定された第1情報処理部若し
くはこれに最も近い上記メモリ手段に格納された演算重
みの第1情報処理部に分類された状態Bに係るデータを
出力し、前記入力データが上記メモリ手段に格納された
演算重みに対応する学習用の入力データに近似すると判
断されたとき、前記新たな状態Aに係る一連のデータを
前記第2のニューラルネットワークに入力し上記メモリ
手段に格納された連結重みに基づいて得られた出力デー
タを前記状態Bとして出力する演算手段とを具備してな
ることを要旨とする状態推定装置である。
〔作用〕
第1の発明によれば、学習ステップとして、先ず状態A
に係る学習用の入力データが第1のニューラルネットワ
ークに入力される。そこで、第1のニューラルネットワ
ークでは、前記第1情報処理部間に演算重みの重軽の異
なる環境が形成され、前記学習用の入力データが前記第
1情報処理部毎に状態Aに対応した適宜の状態に分類さ
れる。
そして、前記分類された状態Aの入力データ及びそれに
対応する状態Bに係るデータは、それぞれ学習用の入力
データ及び教師データとして第2のニューラルネットワ
ークの学習に供される。そこで、該第2のニューラルネ
ットワークでは、前記分類された学習用の入力データ及
びこれらに対応する教師データに基づいて、第1連結重
み決定手段が各々の連結部の最終的な連結重みを決定し
、前記第1及び第2のニューラルネットワークの学習ス
テップが終了する。
このように、学習用の入力データは、まず第1のニュー
ラルネットワークの学習に供され、その際に特徴的に分
類されるので、例えば人手によっては特徴付けることが
困難で且つ多量の入力データであっても、適切に分類さ
れ得る0次いで、この適切に分類された入力データが、
代表的な学習用の入力データとして上記第2のニューラ
ルネ。
トワークの学習に供されるので、当該学習が効率化され
上記第1及び第2のニューラルネットワークの学習に要
する時間を、例えば短縮することができる。
又、第2の発明によれば、先ず状態Aに係る学習用の入
力データが第3及び第4のニューラルネットワークにそ
れぞれ入力され前記各ニューラルネットワークの学習ス
テップに供される。
次に、推定ステップとして、新たな状態Aの入力データ
が上記第4のニューラルネットワークに入力され上記入
力データに対応する第4情報処理部が特定される。そこ
で、当該入力データが前記学習用の入力データに近似し
ないと判断されたとき、上記特定された第4情報処理部
若しくはこれに最も近い第4情報処理部に予め分類され
ている状態Bに係るデータが出力され、前記新たな入力
データが学習用の入力データに近似すると判断されたと
き、前記新たな状態Aの入力データを、学習用の入力デ
ータに近似する入力データに対して極めて推定精度のよ
い前記第3のニューラルネットワークに入力して得られ
た出力データが前記状態Bとして出力される。このよう
に、前記第3及び第4のニューラルネットワークがそれ
ぞれの利点を生かしつつ状態量の推定を行う上で役割分
担する。
更に、第3の発明によれば、上記第1の発明に係る学習
ステップが各々のニューラルネットワークの学習時に実
行され、上記第2の発明に係る推定ステップが実行され
る。そのため、第1及び第2のニューラルネットワーク
の学習の高速化を図ることが可能で、多量の学習用の入
力データを実際的に当該学習に供することができる。そ
して、上記学習済のニューラルネットワークを役割分割
させて用いることにより、状態の推定をより精度良く行
うことができる。
〔実施例〕
以下、添付した図面を参照しつつ、本発明を具体化した
実施例につき説明し、本発明の理解に供する。ここに第
1図は本発明の一実施例に係る高炉熱損失量推定装置を
示すブロック構成図、第2図は同高炉熱損失量推定装置
が具備するバックプロパゲーション型のニューラルネッ
トワークを示すW念図、第3図は同ニューラルネットワ
ークを構成するニューロンと連結部を示す概念図、第4
図は前記高炉熱損失量推定装置が具備する自己組織化特
徴マツピング型のニューラルネットソークを示す概念図
、第5図は第4図のニューラルネットソークを構成する
ニューロンを示す概念図、第6図は同ニューラルネット
ワークのニューロンの配置状態及び゛°泡゛の範囲の時
間的変化を示す概念図、第7図は第4図のニューラルネ
ットワークの発火した特定ニューロンからの距離とニュ
ーロン出力の活性度との関係を示すグラフ、第8図は第
2図のニューラルネットワークを構成する中間層のノー
ドにニューロン)の個数が4個の場合の学習時における
演算の収束に要した学習回数を示すグラフ、第9図は前
記中間層のノードの個数が4個の場合の学習時における
熱損失量の推定値と実kIi値の相関関係を示すグラフ
、第1O図は前記中間層のノードの個数が4個の場合の
実運転の評価時における熱損失量の推定値と実績値の相
関関係を示すグラフ、第11図は分類された炉壁温度分
布データを各ニューロンの配置毎に概念的に示す721
図、第12図は発火したニューロンに分類された全ての
炉壁温度分布データに対応する放散熱量の平均値を当該
ニューロンの配置毎に割付けた状態を示す割付はマツプ
図、第13図は学習済みの第4図のニューラルネットワ
ークに学習用の炉壁温度分布データを入力した場合の熱
を員失量の実績値と推定値との関係を示すグラフ、第1
4図は学習済みの第4図のニューラルネットワークに前
記学習用の炉壁温度分布データと異なるテスト用の炉壁
温度分布データを入力した時の熱損失量の実Mi値と推
定値との関係を示すグラフ、第15図は前記高炉熱tl
失量推定装置による熱損失量のttp定手順を示すフロ
ーチャートである。
尚、以下の実施例は、本発明の具体的−例に過ぎず、本
発明の技術的範囲を限定する性格のものではない。
本実施例に係る高炉熱損失量推定装置1は、第1図に示
すように、バックプロパゲーションアルゴリズムに基づ
いて温度分布のパターン認識を行うニューラルネットワ
ーク2(第2若しくは第3のニューラルネットワーク)
と、自己組織化特徴マンピングアルゴリズムを用いてパ
ターン認識を行う、所謂コホーネン型のニューラルネッ
トワーク2つ (第1若しくは第4のニューラルネンl
−’ノーク〕と、前記学習済みのニューラルネットソー
ク2に、実測された炉壁温度分布データを入ツノして得
た出力データy(第2図)を熱1員失量推定値として出
力したり、或いは前記ニューラルネットワーク2.のニ
ューロン5.(第4図)毎に分類された複数の炉壁温度
分布データに対応する炉体からの放散熱量の平均値を当
該ニューL】ン5.に割付け、推定実行時に新たな炉壁
温度分布データが前記ニューラルネットワーク2.に入
力された時、概念上発火したニューロン5.若しくはこ
れに最も近いニューロン5mの放散熱量の平均値をその
時の高炉10の熱損失量として推定する演算制御部4と
、学習時に設定された内容の異なる複数の炉壁温度の学
習用入力データと該学習用入力データのそれぞれに対応
する高炉IOの熱損失量の教師データとを参照しつつ得
たニューラルネットソーク2の連結部(後述)の各々の
連結重みを格納すると共に、学習時に分類された炉壁温
度分布データ及び該炉壁温度分布データに対応するニュ
ーラルネットワーク2.のシナプス荷重(演算重み)及
び放散熱量の平均値をニューロン5.毎に格納するメモ
リ3と、温度センサ11からの炉壁温度分布データを入
力すると共に推定された熱損失量データを高炉lOに向
けて出力するための入出力ポート12とから構成されて
いる。
前記ニューラルネットワーク2は、第2図に示すように
、前記温度センサ11からの65点の炉壁温度データと
オフセット入力1点の合計66点の入力データX、、X
、、・・・+X66を入力するように、66個のニュー
ロン5(第2若しくは第3情報処理部)からなる入力層
と、複数のニューロン5よりなる中間層と、1個のニュ
ーロン5からなり出力データyを出力する出力層とより
構成され、それぞれの眉間が連結部6により連結されて
いる。
そして、前記ニューロン5は、第3図に示すように、デ
ータ信号を伝達すると共に該データ信号に対し重み付は
処理を行う連結部6に接続され、該データ伝達方向(第
2図の矢印F)上流側の層のニューロン5の連結部6か
らの入力データを入力する入力部7と、該入力部7に入
力された重み付は後のそれぞれの入力データを総和して
得られた総和値に闇値処理を施し当該総和値がニューロ
ン5毎に予め設定された闇値を越えた時に概念上発火(
出力)するようにした演算部8と、該演算部8が発火し
た時にデータ伝達方向下流側の層のニューロン5にデー
タ信号を出力する出力部9とからなっている。
そして、このニューラルネットワーク2は、予め学習ス
テップが実行され、前記バックプロパゲーションアルゴ
リズム(逆伝播法)に基づいて学習用入力データと該学
習用入力データに対応する教師データ(放散熱量)から
、学習時に前記連結部6の連結重みの学習を順次行い、
全ての学習用入力データ及び該学習用入力データに対応
する教師データを用いた学習によって、最終的な連結重
みを決定し、前記メモリ3にその時の連結重みを格納す
る。即ち、上記した如くの炉壁温度分布データと熱を員
失量との対応関係に係る情報は、上記各連結部6の最終
的な連結重みの中にI!を立上分散して格納されている
ことになる。尚、前記連結重みの学習は、前記データ伝
達方向の上流側に向けて層毎に順次遡り逆伝播して行わ
れる。例えば、前記入力信号×1〜L&を前記高炉熱損
失量推定装置llに入力し、出力データyを演算する。
この時、前記出力データyが予め設定された教師データ
に近接若しくは一層するまで前記重みを変えつつ学習(
演算)して、近接若しくは一層した際の前記連結部6に
付与された重みを連結重みとして採用する。即ち、前記
演算制御部4と前記演算部8とにより連結重みが決定さ
れるまでの機能を実現するのが第2重心決定手段である
。尚、上記全ての連結部6に決定された連結重みは、次
の学習用の入力データが入力される時上記連結部6に付
与された連結重みの学習時の初期値として用いられる。
引き続き、上記したコホーネン型のニューラルネットワ
ーク2.の概要につき説明する。
ツエボ・コホーネン教授により提案されたニューロン5
.(第1若しくは第4情報処理部)は、第5図にそのモ
デルを示すように、炉壁温度分布データを構成する個々
の入力に対応する荷重ベクトルW、、、を具備している
。当該ニューロン51の出力の活性度0□は、次の(1
)式に示すように、前記荷重ベクトルW、、、と入力ベ
クトルXj との内積の和から得られる。
0、=L/(1+e−”)  ・・・a)但し、1.−
ΣX、W、、。
更に、上記したニューロン5ユを連結したニューラルネ
ットワーク2aの概念的な基本構造を第4図に示す、前
記ニューラルネットワーク21は、炉壁温度分布データ
等を構成する65個の入力信号X1.・・・+X4Sの
一つ一つが100個のニューロン5.と個別に連結され
、それぞれのニューロン5.の出力信号01.・・・、
ol。。がら入力側に向けてフィードバック信号F1.
・・・+FI。。を帰還させるフィードバック結合が形
成されている。
該フィードバック結合は、第7図に示すように、当該ニ
ューラルネットワーク2.に前記入力信号X1.・・・
、X&Sが入力された時あるニューロン5、が発火して
特定されその活性度0□が増大すると、前記特定のニュ
ーロン5sに近接するニューロン5aの活性度を引きず
って増大させる機能を具備している。このように、ある
特定のニューロン5sが活性化された時に、該特定のニ
ューロン5.の周囲に引きずられてできる比較的活性度
の高いニューロン5aは、まとめて”泡“ (図中添字
付きのBで示す位置に該当するニューロン5゜を呼ぶ)
と称される。尚、同図において、上記泡の外側のニュー
ロン511の活性度は一旦下がった後平衡状態に至って
いる。それにより、上記特定のニューロン51を一層特
徴付けるように構成されている。ただし、これに限らず
、上記泡の状態から直接平衡状態に移行させてもよい。
前記ニューラルネットワーク2.は、ニューロン51の
それぞれのシナプス荷重Wi、、(荷重ベクトル)を、
炉壁温度分布データが入力される毎に演算し、前記ニュ
ーラルネットワーク23の学Mを予め行っておく必要が
ある。そこで、前記シナプス荷重W、1.の学習は次の
(2)式で行われる。
化している。即ちg(O□)を(0,alとして、前記
シナプス荷重W0..の学習が簡単化されている。即ち
、次の(3)式及び(4)弐を用いて、0==1.g(
○1)=a(泡の範囲の内側)のとき、 但し、a−学習係数であって、agoである。
ここで、右辺第1項は入力とニューロン5aの出力の活
性度の積に比例して前記シナプス荷重W i 、jを変
化させる衆知のヘブH1ebb)の法則に従う項である
。また、右辺第2項は前記第1項のみであれば増加する
一方となるシナプス荷重W t 、Jを抑制するための
項である。
更に、前記ニューロン5aは、第6図に示すように、1
列m行の2次元格子に概念上配置されている。そして、
実際の学習時には、(2)式について、出力の活性度O
8を活性化するかしないか、即ち、0□を[0,11と
し、更に、前記抑制項を簡略o、=I、  g (0=
 ) =0 (泡の範囲の外側)のとき、 t により前記シナプス荷重WL、、の学習を行う。
ここで上記した学習係数a及び泡の範囲の大きさは前記
学習を収束させるために、学習回数につれて縮小される
。即ち、前記学習係数a及び泡の範囲の大きさは時間の
関数として設定されている。
第6図では学習初期の泡の範囲B、が学習中期の泡の範
囲B、から学習終期の泡の範囲B、へと、この時発火し
た特定のニューロン5.に向けて次第に狭まって行く様
子を概念的に示す。それにより、前記シナプス荷重W、
2.は近隣のニューロン5aのものと類偵していき、前
記シナプス荷重W、、、の値はニューロン5a間で滑ら
かに変化するように型針の異なる環境が形成される。更
に、入力ベクトルX、よりなるベクトルパターンが有限
個のニューロン5aと対応関係を持つことになるため、
X、という多次元ベクトルを量子化することができる。
そこで、上記のような概要のニューラルネットワーク2
.2.を高炉10に適用した例につき以下説明する。
温度センサ11から採取した炉壁温度は、同一炉高につ
き4方位若しくは8方位の測定点で炉高の異なる9箇所
及び最下部1測定点の合計65点のセンサ出力が入力信
号として前記ニューラルネットワーク2又は2.に入力
される。
これらのニューラルネットワーク2,2.は予め学習ス
テップが実行される。該学習ステップに先立って、前記
炉壁温度分布データP及び該炉壁温度分布データPに対
応する放散熱量は次式を用いて正規化されている。
炉壁温度分布データP−炉壁温度/200.0放散熱量
データ=(放散熱1−100) /200.0該学習用
の炉壁温度分布データPは1年間の奇数月の日平均デー
タを用いた。
まず、上記したニューラルネットワーク2を単独に用い
た場合の学習結果につき説明する。
本実施例装置のニューラルネットワーク2において、中
間層のノード数にニューロン5の数)の最適値を求める
ために、学習時において、2.34.5.10,15.
20のノード数が設定され、各ノード数毎に学習計算が
実行された。この時、学習用データに係る学習係数を4
.0とし、慣性項係数を0.9とした。前記学習計算に
よる中間層ノード個数毎の学習回数と誤差ノルマ(最大
誤差)との関係を第8図に示す。それによれば、学習が
ある程度進むと、前記誤差はグラフ上で振動を始める。
そこで、振動直前まで学習が行われるように、打ち切り
誤差を設定した。前記設定された打ち切り誤差を次の表
1に示す。
また、第9図は学習済のニューラルネットワーク2に学
習用入力データを入力して得た熱損失量の推定値と、そ
の時教師データとして参照された放散熱量(熱損失量)
の実績値との相関関係を、“学習時°”として示すグラ
フ、第1θ図は学習済のニューラルネットワーク2に当
該学習に用いた学習用入力データと異なる入力データを
入力して得た熱損失量の推定値と、その入力データによ
る損失量の実績値との相関関係を“評価時°°として示
すグラフである。尚、上記した第9図及び第10図にお
いて、図中のγは相関係数を示す。又各図に用いられた
推定値と実績値との誤差の分散値を推定誤差分散として
上記した表1に示す、この時、学習回数に33355回
を要し、学習時間(32ビ、 トcpu使用時)には、
10.05時間を要した。
その結果、前記中間層のノード数が4個に設定された時
、前記ニューラルネットワーク2の結合状態が最適にな
ることが判明した。又、前記ニューラルネットワーク2
では、学習用入力データと大きく異なる、いわゆる未知
の入力データU(第1O図)を用いた場合には推定精度
が悪くなった。
次に、前記ニューラルネットワーク2aの学習ステップ
概要につき詳述する。
先ず、前記ニューラルネットワーク2aの各ニューロン
5.のシナプス荷重W、、1の初期値が設定される。こ
の時、前記炉壁温度分布データPとして乱数が用いられ
、前記シナプス荷重W、9゜の値が適当に分散されるよ
うになしている。
続いて、前記ニューラルネットワーク2.に学習用の炉
壁温度分布データPが入力される。該学習用の炉壁温度
分布データPは先に述べたニューラルネットワーク2の
学習時と同じ1年間の奇数月の日平均データを用いた。
そして、ある学習用の炉壁温度分布データPが入力され
た時、前記泡の中心となるニューロン5sが特定される
。そこで、前記炉壁温度分布データPは正規化されてい
るので、前記各ニューロン5゜についての前記炉壁温度
分布データPとシナプス荷重W、、、の各ベクトル間の
距離り、は、次の(5)式を用いて前記100個のニュ
ーロン5.毎に演算される。
前記(5)式において、前記路@D、が最小となるニュ
ーロンが前記泡の中心となるニューロン゛5゜である。
引き続き、前記特定のニューロン5s、及びその周辺の
ニューロン5.のシナプス荷重w、 、 Jが次の(6
)式により修正される。
W、 、 ノ  (t  + 1)  =W=  、 
 +   (t)+a (t)(X+  (t)−W、
、J  (t))・・・(6) ここで、a(【)は、上記したように経験的に定められ
る値で、0〜lの値をとる。更に、前記a(【)は時間
tの経過に伴って減少するように設定されている。同様
に、上記したような学習時間経過に伴って泡の範囲もB
、、B2.B、の様に次第に縮小され、その時特定され
たニューロン5、に当該炉壁温度分布データPが特徴付
けられて分類される。
以上のような学習ステップは、前記学習用の全ての炉壁
温度分布データPに対して教師データを必要とすること
なく実行され、それぞれの炉壁温度分布データPは、発
火したいずれかのニューロン5aに分類される。即ち、
前記フィードバック結合による学習用の炉壁温度分布デ
ータPをこれに対応するニューロン51に分類する機能
を実現するのがデータ分類手段である。
この場合、発火しなかったニューロン5aには学習用の
炉壁温度分布データPは分類されないが、当該ニューロ
ン5aは近隣の発火したニューロン5ヮの泡としての影
響受け、そのシナプス荷重W i + jがメモリ3に
記憶される。これを用いて当該発火しなかったニューロ
ン5.のシナプス荷gw、、、が演算される。そのため
、当該ニューロン5aは上記発火したニューロン5.に
近いもの程、当該シナプス荷重W4..が上記発火した
ニューロン5.のものに近似することになる。
そして、■若しくは複数の炉壁温度分布データPが分類
されたニューロン5a及び上記炉壁温度分布データが分
類されなかったニューロン5aのいずれにも、学習時に
上記(5)式及び(6)式により求められたシナプス荷
重wi、、のヘクトルパターンとして第11図に示す如
くの炉壁温度パターンTを得ることができる。該炉壁温
度パターンTは、第1I図のパターンマツプMに示すよ
うに、例えば図中9行0列目のニューロン5aに対応す
る炉壁温度パターンTを例に挙げると、高炉lOの東方
位e、西方位W、南方位S、北方位nの4方位における
炉壁温度パターンTとして分類されている。
ここで、前記炉壁温度パターンTは、縦軸が高炉10の
高さを、横軸が温度を示す概念図であって、実際にはメ
モリ3に格納されたシナプス荷重W。
から導き出される。上記炉壁温度パターンTは、例えば
図外のCRTに第11図に示す如く表示することができ
る。
このように、前記ニューラルネットワーク2aによって
、65次元のヘクトルパターンを100個のニューロン
51にマンピングすることができる。
上記したニューラルネットワーク2.lを単独に用いた
場合において、例えば32ビツトの処理能力を用いて前
記学習に要した時間は約1時間であって、その学習回数
は2000回であった。
そして、ある複数組の学習用の炉壁温度分布データPを
入力して、あるニューロン5.が活性化した時、前記炉
壁温度分布データPに対応する放散熱量の平均値は、演
算制御部4により当該ニューロン5aに割付けられ、メ
モリ3に格納される。
このように、前記放散熱量の平均値が各ニューロン5a
に対応して割付けられてなる割付はマツプAの一例を第
12図に示す。第12図に示したマツプ八において、(
−)は、前記学習用の炉壁温度分布データPによっては
当該行列位置のニューロン5aが活性化しなかったこと
を示している。この割付はマツプAによれば、大きな放
散熱量の集まりSl及び小さな放散熱量の集まりS2が
10行行IO列のニューラルネットワーク2a上で顕著
に分類されている。
即ち、ニューラルネットワーク2.の学習時において、
新たに入力された学習用の炉壁温度分布データPがそれ
以前に入力された学習用の炉壁温度分布データPと比べ
て近似するかどうかが、先述した(5)式を用いて評価
される。そこで、上記それぞれの炉壁温度分布データP
が近似していると判断された場合には、上記新たに入力
された学習用の炉壁温度分布データPは、上記それ以前
に入力された学習用の炉壁温度分布データPが分類され
たニューロン51の近傍のニューロン5.に(6)式に
よって分類される。逆に上記そ、れぞれの炉壁温度分布
データPが近似しないと判断された場合には、前記新た
に入力された学習用の炉壁温度分布データPは前記それ
以前に入力された学習用の炉壁温度分布データPが分類
されたニューロン5mから離れたニューロン5.に分類
される。これによって、上記したようにして得た炉壁温
度パターンTと放散熱It(熱損失量)との間に深い関
係があることを確認することができた。
上記したような学習済みのニューラルネットワーク2a
に新たな炉壁温度分布データPを入力すると、該炉壁温
度分布データPに最も近い値(距111Diが最小)の
学習済のシナプス荷重W4.。
を具備するニューロン5aが発火する。このニュロン5
aが、例えば先述した9行0列目のニューロン51であ
れば、当工亥ニューロン5.に対応して割付けられた放
散熱量の平均値(=171.3)が前記演算制御部4(
制御手段)によりその時の高炉IOの熱tU失量として
推定される。
このとき、学習時に発火しなかったニューロン5aが発
火した場合には、上記学習時に発火しなかったニューロ
ン5つに対応する放散熱量の平均値は、学習時に発火し
た最も近いニューロン5aに割付けられた放散熱量の平
均値に基づいて演算される。
更に、上記した炉壁温度パターンTと熱損失量との関係
を表す新しい知識につきどの程度の精度が望めるかを評
価した。
ここで、学習後のニューラルネットワーク2aに前記ニ
ューラルネットワーク2に入力したと同じ学習用の炉壁
温度分布データPを入力し、活性化したニューロン5a
の平均放散熱量を熱損失量の推定値として評価した。第
13図に学習用の炉壁温度分布データPを用いて得た熱
損失量の実績値と推定値の関係を示す、この時の両者の
相関係数Tは0.931であり、当然ながら比較的高い
再現性を得ている。
また、学習後のニューラルネットワーク2aに前記学習
用の炉壁温度分布データPとは異なるテスト用の新たな
炉壁温度分布データ(1年間の偶数月の日平均データ)
を入力して得た前記実績値と推定値との関係を第14図
に示す、それによれば、これまでニューラルネットワー
ク21が知らなかった未知の炉壁温度分布データに対し
ても前記ニューラルネットワーク2による場合と比べて
高精度に熱損失量を推定することが可能であった(T=
0.711)。
上記したようなニューラルネットワーク2.2aを具備
しこれらの双方を用いた高炉熱IJI失I推定装置1に
よる高炉10からの熱損失量の推定手順につき、第15
図のフローチャートを用いて、以下説明する。
先ず、過去の実績値(1年間の奇数月の日平均データ)
である炉壁温度の複数の炉壁温度分布データP(状態A
)が高炉10の65点の温度センサ11から自己組織化
特徴マツピング型のニューラルネットワーク2aに入力
され学習に供される。
そこで、前記炉壁温度分布データPは100個(1(L
(m)行Xl0(jり列)のニューロン5゜のいずれか
に炉壁温度パターンTとして分類され、そのとき決定さ
れた上記シナプス荷重W、、、(演算重み)がメモリ3
に格納される。即ち、上記シナプス荷重W、、、に対応
するl OXI 0個の炉壁温度パターンTによるパタ
ーンマツプMがメモリ3内に作成される(ステップSl
)。
このとき、前記炉壁温度パターンT毎に分類された炉壁
温度分布データPに対応する放散熱量(状態B)の平均
値が演算制御部4によって演算される(ステップS2)
、それにより、前記パターンマツプMに対応する前記放
散熱量の平均値の割付はマツプAが形成されメモリ3に
記憶される。
次に、前記分類された炉壁温度パターンTのうち、高炉
操業上典型的であると目される炉壁温度パターンTが対
応する前記放散熱量の平均値と共に選択され(ステップ
S3)、パックプロパゲーシッン型のニューラルネット
ワーク2へ学習のために入力される。ただし、前記典型
的な炉壁温度パターンT及び対応する放散熱量の平均値
のみを敢えて選択する必要はなく、前記100個の炉壁
温度パターンT及びその放散熱量の平均値を全て用いて
も構わない。
そして、前記ニューラルネットワーク2では、選択され
た炉壁温度パターンTにオフセット入力1点を加えた入
力データX1〜X&&を炉壁温度分布データPとし、前
記炉壁温度パターンTに対応する放散熱量の平均値を教
師データとして、両者の対応関係が学習され、当該ニュ
ーラルネットワーク2の最終的な連結重みが決定されメ
モリ3に格納される(ステップS4)。これにより、本
実施例装置のニューラルネットワーク2.2aの学習ス
テップが終了する。即ち、前記ニューラルネットワーク
21により分類された炉壁温度分布データPを前記ニュ
ーラルネットワーク2に入力し該ニューラルネットワー
ク2の連結重みの学習を行うステップS4の機能を実現
するのが第1重み決定手段である。
引き続き、実質の推定ステップが実行される。
先ず、新たな炉壁温度分布データPが、前記ニューラル
ネットワーク2aに入力され、そのとき発火したニュー
ロン51の前記メモリ3に格納されたシナプス荷重W4
1.と上記入力された炉壁温度分布データPとのベクト
ル間の距MD、が演算される(ステ・2プS5)。
そして、前記距jillD、が予め設定されたベクトル
間距離に係る設定値ε。と比較される(ステップS6)
。この設定値ε。は、高炉操業上の経験的な情報に係り
前記ニューラルネットワーク2の学習時に用いたものと
同し炉壁温度分布データPにlづいて設定されている。
即ち、前記距離り、が前記設定値ε。よりも大きい場合
には、前記新たに入力された炉壁温度分布データPがニ
ューラルネットワーク2の学習時に用いられた炉壁温度
分布データPと大きく相違する入力データであると判断
される。そして、そのとき発火したニューラルネットワ
ーク2aのニューロン5a若しくは当該ニューロン5.
若しくはこれに最も近いニューロン5.に割付けられた
放散熱量の平均値を高炉10がらの熱11失量の推定値
とする(ステップS7)。
他方、前記距離り、が設定値ε。よりも小さい場合、入
力された炉壁温度分布データPは、前記学習時の炉壁温
度分布データPに似たパターンであると判断され、学習
時に使用された既知のパターンデータ及びこれに近位す
るパターンデータに対して高い推定精度で演算を行うこ
とのできるニューラルネットワーク2に入力される。そ
こで、ニューラルネットワーク5の出力層から得た出力
データyが、熱損失量の推定値として出力される(ステ
ップ3B)。
上記したように、本実施例に係る高炉熱損失量推定装置
1は、学習時に教師データを要しない自己組織化特徴マ
ンピング型のニューラルネットワーク21を用いた場合
、炉壁温度分布データPを適宜の炉壁温度パターンTに
分類するので、人手によっては分類の困難なパターンデ
ータであっても自動的に特徴付けされ分類され得る。
又、上記のように分類された炉壁温度パターンTを、バ
ンクプロパゲーシッン型のニューラルネットワーク2の
学習時の一連の入力データとして用いた場合には、学習
の高速化を図ることができる。更に、前記ベクトル間の
距II D + によってニューラルネットワーク2と
ニューラルネットワーク21を使いわけることにより、
推定入力時のパターンデータが学習時の炉壁温度分布デ
ータPと大きく相違する量であったり、或いは前記炉壁
温度パターンTの中間的な量であっても、高炉10から
の熱損失量を高精度に推定することができる。
ただし、前記ニューラルネットワーク2の学習時の一連
の入力データとしては、必ずしも前記分類されたパター
ンデータである必要はなく、例えば全ての炉壁温度分布
データPを用いてもよく、その場合にも前記熱ta失量
の推定を高精度に行うことができる。
尚、本実施例のステップS6において、演算されたベク
トル間の距@D、が設定値ε。より大のとき、ステップ
S7を選択するようにしたが、それに限定されるもので
はなく、例えば、そのとき入力された炉壁温度分布デー
タP及びそれに対応する放散熱量をパックプロパゲーシ
ョン型のニューラルネットワーク2の学習用の一連の入
力データ及び教師データに加え、該ニューラルネットワ
ーク2の再学習を行わせるように構成してもよい。
それにより、前記学習用の一連の入力データ及び教師デ
ータの適用範囲が広がることがら、当該ニューラルネッ
トワーク2の推定精度が一層向上する。又、距翻り、>
設定値ε。の場合のみ再学習を実行すればよいため、学
習が効率的なものとなる。
(発明の効果) 上記第1の発明は上記したように構成されているので、
第1及び第2のニューラルネットワークを用いた場合の
それらの学習の高速化を図ることができる。それにより
、学習用の入力データが多い場合でも、上記学習に多大
な時間を要することがない。
又、上記第2の発明は上記したように構成されているの
で、第3及び第4の各ニューラルネットワークがそれぞ
れの利点を生がしつつ役割分担する。それにより、状態
の推定を精度良く行うことができる。
更に、上記第3の発明は上記したように構成されている
ので、第1及び第2のニューラルネットワークを用いた
場合の学習が高速化される。それにより、多くの学習用
の入力データを用いて効率良く学習済の各ニューラルネ
ットワークを状態の推定に供することができる。又、こ
れらのニューラルネットワークがそれぞれの利点を生か
しつつ役割分担するので、状態の推定をより精度良く行
うことができる。
【図面の簡単な説明】
第1図は本発明の一実施例に係る高炉熱I員失量推定装
置を示すブロック構成図、第2図は同高炉熱損失量推定
装置が具備するバンクプロパゲーション型のニューラル
ネットワークを示す概念図、第3図は同ニューラルネッ
トワークを構成するニューロンと連結部を示す概念図、
第4図は前記高炉熱損失量推定装置が具備する自己組織
化特徴マツピング型のニューラルネットワークを示す概
念図、第5図は第4図のニューラルネットワークを構成
するニューロンを示す概念図、第6図は同ニューラルネ
ットワークのニューロンの配置状態及び“泡′”の範囲
の時間的変化を示す概念図、第7図は第4図のニューラ
ルネットワークの発火した特定ニューロンからの距離と
ニューロン出力の活性度との関係を示すグラフ、第8図
は第2図のニューラルネットワークを構成する中間層の
ノードにニューロン)の個数が4個の場合の学習時にお
ける演算の収束に要した学習回数を示すグラフ、第9図
は前記中間層のノードの個数が4個の場合の学習時にお
ける熱損失量の推定値と実績値の相関関係を示すグラフ
、第1θ図は前記中間層のノードの個数が4個の場合の
実運転の評価時における熱損失量の推定値と実績値の相
関関係を示すグラフ、第11図は分類された炉壁温度分
布データを各二ニーロンの配置毎に概念的に示すマツプ
図、第12図は発火したニューロンに分類された全ての
炉壁温度分布データに対応する放散熱量の平均値を当該
ニューロンの配置毎に割付けた状態を示す割付はマツプ
図、第13図は学習済みの第4図のニューラルネットワ
ークに学習用の炉壁温度分布データを入力した場合の熱
損失量の実績値と推定値との関係を示すグラフ、第14
図は学習済みの第4図のニューラルネットワークに前記
学習用の炉壁温度分布データと異なるテスト用の炉壁温
度分布データを入力した時の熱損失量の実績値と推定値
との関係を示すグラフ、第15図は前記高炉熱損失量推
定装置による熱損失量の推定手順を示すフローチャート
である。 〔符号の説明〕 1・・・高炉熱損失量推定装置 2.2a・・・ニューラルネットワーク3・・・メモリ 4・・・演算制御部 5.5..5.・・・ニューロン lO・・・高炉 11・・・温度センサ

Claims (3)

    【特許請求の範囲】
  1. (1)ある状態Aと別の状態Bとの相関関係の学習を行
    う状態学習装置において、 前記状態Aにかかる一連のデータを構成する入力データ
    毎に演算重みを付与し上記入力データと演算重みの積の
    和に関する関数を出力すべく格子状に概念上配列された
    複数の第1情報処理部と、予め設定された状態Aの学習
    用の入力データを前記複数の第1情報処理部に入力し演
    算することにより特定された第1情報処理部及びその周
    辺番地の第1情報処理部の演算重みを変更し前記第1情
    報処理部間に演算重みの重軽の異なる環境を形成して前
    記学習用の入力データをこれに対応する第1情報処理部
    毎に状態Aに対応した適宜の状態に分類するデータ分類
    手段とを有する第1のニューラルネットワークと、 データの入力部,演算部及び出力部を有する複数の第2
    情報処理部を具備し、ある第2情報処理部の出力部と他
    の第2情報処理部の入力部が前記出力部よりの出力情報
    に連結重みを付加して前記入力部に伝達するための連結
    部を介して連結されてなる第2のニューラルネットワー
    クと、 該第2のニューラルネットワークに前記第1のニューラ
    ルネットワークにより分類された学習用の入力データを
    入力し、その出力データが前記分類された学習用の入力
    データに対応する状態Bに係るデータに近接若しくは一
    致するまで前記連結重みを変えつつ学習して、近接若し
    くは一致した際の前記連結部の各々の連結重みを決定す
    る第1重み決定手段とを具備してなることを特徴とする
    状態学習装置。
  2. (2)ある状態Aにかかる一連のデータに基づいて別の
    状態Bを推定する状態推定装置において、データの入力
    部,演算部及び出力部を有する複数の第3情報処理部を
    具備し、ある第3情報処理部の出力部と他の第3情報処
    理部の入力部が前記出力部よりの出力情報に連結重みを
    付加して前記入力部に伝達するための連結部を介して連
    結されてなる第3のニューラルネットワークと、 該第3のニューラルネットワークに前記一連のデータを
    構成する学習用の入力データを入力し、その出力データ
    が予め設定された教師データに近接若しくは一致するま
    で前記連結重みを変えつつ学習して、近接若しくは一致
    した際の前記連結部の各々の連結重みを決定する第2重
    み決定手段と、前記入力データ毎に演算重みを付与し上
    記入力データと演算重みの積の和に関する関数を出力す
    べく格子状に概念上配列された複数の第4情報処理部と
    、予め設定された状態Aの学習用の入力データを前記複
    数の第4情報処理部に入力し演算することにより特定さ
    れた第4情報処理部及びその周辺番地の第4情報処理部
    の演算重みを変更し前記第4情報処理部間に演算重みの
    重軽の異なる環境を形成して前記学習用の入力データを
    これに対応する第4情報処理部毎に状態Aに対応した適
    宜の状態に分類するデータ分類手段とを有する第4のニ
    ューラルネットワークと、 前記第3のニューラルネットワークに、予め設定された
    内容の異なる複数の前記状態Aに係る学習用の入力デー
    タを入力し該学習用の入力データのそれぞれに対応する
    前記状態Bに係る教師データを参照しつつ得た前記連結
    部の各々の連結重みを格納すると共に、前記第4のニュ
    ーラルネットワークの、前記データ分類手段により分類
    された学習用の入力データに対応する演算重み及び状態
    Bに係るデータを当該第4情報処理部毎に格納するメモ
    リ手段と、 状態推定時に、新たな状態Aに係る入力データを前記第
    4のニューラルネットワークに入力して上記入力データ
    に対応する第4情報処理部を上記メモリ手段に格納され
    た演算重みに基づいて特定し、当該入力データが上記メ
    モリ手段に格納された演算重みに対応する学習用の入力
    データに近似しないと判断されたとき、上記特定された
    第4情報処理部若しくはこれに最も近い上記メモリ手段
    に格納された演算重みの第4情報処理部に分類された状
    態Bに係るデータを出力し、前記入力データが上記メモ
    リ手段に格納された演算重みに対応する学習用の入力デ
    ータに近似すると判断されたとき、前記新たな状態Aに
    係る一連のデータを前記第3のニューラルネットワーク
    に入力し上記メモリ手段に格納された連結重みに基づい
    て得られた出力データを前記状態Bとして出力する演算
    手段とを具備してなることを特徴とする状態推定装置。
  3. (3)ある状態Aにかかる一連のデータに基づいて別の
    状態Bを推定する状態推定装置において、前記一連のデ
    ータを構成する入力データ毎に演算重みを付与し上記入
    力データと演算重みの積の和に関する関数を出力すべく
    格子状に概念上配列された複数の第1情報処理部と、予
    め設定された状態Aの学習用の入力データを前記複数の
    第1情報処理部に入力し演算することにより特定された
    第1情報処理部及びその周辺番地の第1情報処理部の演
    算重みを変更し前記第1情報処理部間に演算重みの重軽
    の異なる環境を形成して前記学習用の入力データをこれ
    に対応する第1情報処理部毎に状態Aに対応した適宜の
    状態に分類するデータ分類手段とを有する第1のニュー
    ラルネットワークと、 データの入力部,演算部及び出力部を有する複数の第2
    情報処理部を具備し、ある第2情報処理部の出力部と他
    の第2情報処理部の入力部が前記出力部よりの出力情報
    に連結重みを付加して前記入力部に伝達するための連結
    部を介して連結されてなる第2のニューラルネットワー
    クと、 該第2のニューラルネットワークに前記第1のニューラ
    ルネットワークにより分類された学習用の入力データを
    入力し、その出力データが前記分類された学習用の入力
    データに対応する状態Bに係るデータに近接若しくは一
    致するまで前記連結重みを変えつつ学習して、近接若し
    くは一致した際の前記連結部の各々の連結重みを決定す
    る第1重み決定手段と、 前記第2のニューラルネットワークに、予め設定された
    内容の異なる複数の前記状態Aに係る学習用の入力デー
    タを入力し該学習用の入力データのそれぞれに対応する
    前記状態Bに係る教師データを参照しつつ得た前記連結
    部の各々の連結重みを格納すると共に、前記第1のニュ
    ーラルネットワークの、前記データ分類手段により分類
    された学習用の入力データに対応する演算重み及び状態
    Bに係るデータを当該第1情報処理部毎に格納するメモ
    リ手段と、 状態推定時に、新たな状態Aに係る入力データを前記第
    1のニューラルネットワークに入力して上記入力データ
    に対応する第1情報処理部を上記メモリ手段に格納され
    た演算重みに基づいて特定し、当該入力データが上記メ
    モリ手段に格納された演算重みに対応する上記学習用の
    入力データに近似しないと判断されたとき、上記特定さ
    れた第1情報処理部若しくはこれに最も近い上記メモリ
    手段に格納された演算重みの第1情報処理部に分類され
    た状態Bに係るデータを出力し、前記入力データが上記
    メモリ手段に格納された演算重みに対応する学習用の入
    力データに近似すると判断されたとき、前記新たな状態
    Aに係る一連のデータを前記第2のニューラルネットワ
    ークに入力し上記メモリ手段に格納された連結重みに基
    づいて得られた出力データを前記状態Bとして出力する
    演算手段とを具備してなることを特徴とする状態推定装
    置。
JP2165199A 1990-06-22 1990-06-22 状熊学習装置及び状態推定装置 Pending JPH0454685A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2165199A JPH0454685A (ja) 1990-06-22 1990-06-22 状熊学習装置及び状態推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2165199A JPH0454685A (ja) 1990-06-22 1990-06-22 状熊学習装置及び状態推定装置

Publications (1)

Publication Number Publication Date
JPH0454685A true JPH0454685A (ja) 1992-02-21

Family

ID=15807720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2165199A Pending JPH0454685A (ja) 1990-06-22 1990-06-22 状熊学習装置及び状態推定装置

Country Status (1)

Country Link
JP (1) JPH0454685A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5542005A (en) * 1991-09-17 1996-07-30 Matsushita Electric Industrial Co., Ltd. Recognition unit and recognition apparatus
CN107249434A (zh) * 2015-02-12 2017-10-13 皇家飞利浦有限公司 鲁棒分类器
JP2019013993A (ja) * 2017-07-04 2019-01-31 ファナック株式会社 熱変位補正装置
WO2019049654A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路
WO2019049686A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
JP2022013607A (ja) * 2020-06-30 2022-01-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 複合計算装置、方法、人工知能チップ、電子設備、及びプログラム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5542005A (en) * 1991-09-17 1996-07-30 Matsushita Electric Industrial Co., Ltd. Recognition unit and recognition apparatus
CN107249434A (zh) * 2015-02-12 2017-10-13 皇家飞利浦有限公司 鲁棒分类器
CN107249434B (zh) * 2015-02-12 2020-12-18 皇家飞利浦有限公司 鲁棒分类器
JP2019013993A (ja) * 2017-07-04 2019-01-31 ファナック株式会社 熱変位補正装置
US10852710B2 (en) 2017-07-04 2020-12-01 Fanuc Corporation Thermal displacement compensation apparatus
WO2019049654A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路
WO2019049686A1 (ja) * 2017-09-07 2019-03-14 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
JPWO2019049686A1 (ja) * 2017-09-07 2020-08-06 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路及び動作方法
JPWO2019049654A1 (ja) * 2017-09-07 2020-10-01 パナソニック株式会社 半導体記憶素子を用いたニューラルネットワーク演算回路
JP2022013607A (ja) * 2020-06-30 2022-01-18 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド 複合計算装置、方法、人工知能チップ、電子設備、及びプログラム
US11782722B2 (en) 2020-06-30 2023-10-10 Beijing Baidu Netcom Science And Technology Co., Ltd. Input and output interfaces for transmitting complex computing information between AI processors and computing components of a special function unit

Similar Documents

Publication Publication Date Title
JP5300739B2 (ja) コンピュータ支援によって技術システムを制御および/または調整する方法
Abdella et al. The use of genetic algorithms and neural networks to approximate missing data in database
Ishida An immune network approach to sensor-based diagnosis by self-organization
CN110837891B (zh) 基于simd架构的自组织映射方法及系统
JPH0454685A (ja) 状熊学習装置及び状態推定装置
CN114266387A (zh) 一种输变电工程工期预测方法、系统、设备及存储介质
Ishida Distributed and autonomous sensing based on the immune network
Dadios et al. Application of neural networks to the flexible pole-cart balancing problem
JPH08314880A (ja) ニューラル・ネットワークの学習方法およびニューラル・ネットワーク・システム
Hlavac Kinematics control of a redundant planar manipulator with a MLP neural network
JPH01173202A (ja) ロボット制御方式
JP3117204B2 (ja) 制御物理変量発生用および物体識別用ニューラル・ネット
CN111473768A (zh) 一种建筑物安全智能检测系统
Saen The use of artificial neural networks for technology selection in the presence of both continuous and categorical data
JP4267726B2 (ja) 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
Emmert-Streib Active learning in recurrent neural networks facilitated by an hebb-like learning rule with memory
Olaiju et al. Rohrer’s Index Prediction Using Neural Network.
JPH04344558A (ja) パターン認識装置
JPH03243707A (ja) 高炉熱損失量推定装置
JP5246751B2 (ja) 情報処理装置、情報処理方法、およびプログラム
Upadhyay et al. ARTIFICIAL NEURAL NETWORKS: A REVIEW STUDY
Mouelhi et al. Combining simulation and artificial neural networks: an overview
Altarawneh Automated System for Constructing a Neural Network by Back Propagation Error
JP2023170227A (ja) 電子制御装置