JP2000122991A - 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法 - Google Patents
制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法Info
- Publication number
- JP2000122991A JP2000122991A JP10293690A JP29369098A JP2000122991A JP 2000122991 A JP2000122991 A JP 2000122991A JP 10293690 A JP10293690 A JP 10293690A JP 29369098 A JP29369098 A JP 29369098A JP 2000122991 A JP2000122991 A JP 2000122991A
- Authority
- JP
- Japan
- Prior art keywords
- data
- neuron model
- layer
- input
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
量の対に対する個別評価に基づいて容易に決定する。 【解決手段】 動作信号を表す第1ベクトルXと操作量
を表す第2ベクトルYとで一つの学習ベクトルI(X,
Y)を構成し、該学習ベクトルIを入力層に与える。そ
して、その学習ベクトルIの表す動作信号及び操作量の
対で制御量が安定するのであれば、競合層12における
勝者ユニット及び近傍ユニットと、入力層と、の間の重
みベクトルW(w,u)を、学習ベクトルIに近づける
よう、ネットワークを更新する。こうすれば、安定的な
制御が可能な動作信号及び操作量の対が重みベクトル空
間に表れる。この結果、複数の動作信号及び操作量の対
に対する個別評価に基づき、制御装置の特性を決定する
ことができる。
Description
法、制御装置、データ生成装置、入出力特性決定方法及
び相関関係評価方法に関し、特に、ニューラルネットワ
ークを用いた、制御装置の製造方法、制御装置、データ
生成装置、入出力特性決定方法及び相関関係評価方法に
関する。
な制御装置を設計するにあたっては、制御対象の特性
や、その制御対象が置かれる環境について正確な情報が
予め入手されていなければならない。しかしながら、現
実にはそれらの情報を正しく入手するのは困難な場合が
多い。
を実際に制御対象に対して与え、どのような制御結果が
得られるかをしらみ潰しに調べていくことにより、制御
装置の特性を決定するのが実際的である。
と、その対に対する個別評価に基づいて、動作信号及び
操作量の関係を評価する手法が提案されれば、その評価
結果に基づいて好ましい動作信号と操作量との関係を決
定し、制御装置を容易に設計・製造することができる。
ず、一般的に、二つのデータ(ベクトルデータを含む)
の相関関係を、個々のデータ対に対する個別評価に基づ
いて評価する方法が提案されれば、有意義である。
個々のデータとその個別評価を処理するのに最も優れた
技術といえるが、既存のニューラルネットワークのモデ
ルでは、単に入力データを分類分けするのみであった
り、単に写像の入出力関係を実現するものであり、二つ
のデータの相関関係を評価することのできるニューラル
ネットワークのモデルは未だ提案されていない。
あって、第1の目的は、制御装置の特性を、複数の動作
信号及び操作量の対に対する個別評価に基づいて容易に
決定することのできる制御装置の製造方法を提供するこ
とにある。
特性をニューラルネットワークに学習させ、その学習内
容に従って、制御対象を制御することのできる制御装置
を提供することにある。
関係とその評価とをニューラルネットワークに学習させ
ておき、その学習内容に従って、あるデータに対応する
データを生成することのできるデータ生成装置を提供す
ることにある。
性を、複数の入出力データの対に対する個別評価に基づ
いて容易に決定することのできる入出力特性決定方法を
提供することにある。
対する個別評価に基づいて、二つのデータの相関関係を
評価することのできる相関関係評価方法を提供すること
にある。
るために、本発明に係る制御装置の製造方法は、動作信
号を構成する個々のデータ要素に対応する動作信号用ニ
ューロンモデルと、操作量を構成する個々のデータ要素
に対応する操作量用ニューロンモデルと、をニューラル
ネットワークの第1層に配置し、前記動作信号用及び操
作量用ニューロンモデルと結合するニューロンモデル群
を前記ニューラルネットワークの第2層に配置し、前記
第1層に配置されるニューロンモデルに、学習用の動作
信号及び操作量の対を順次入力し、該動作信号及び操作
量の対とそれに対する個別評価情報とに基づいて、前記
動作信号用及び操作量用ニューロンモデルと前記第2層
に配置されるニューロンモデル群との間の結合荷重を更
新し、更新後の前記結合荷重に基づいて前記制御装置の
入出力特性を決定し、前記制御装置を製造することを特
徴とする。
対が第1層のニューロンモデルに順次入力され、当該学
習用の動作信号及び操作量の対と、例えば制御量の安定
度等の前記個別評価情報と、に基づき、前記結合荷重が
更新される。こうすれば、入出力関係が類似する動作信
号及び操作量の対に対しては、第2層において近傍に位
置するニューロンモデルが反応するよう、前記結合荷重
が順次更新されるため、学習後の結合荷重に基づいて、
ある個別評価に対応する動作信号及び操作量の対を得る
ことができる。この結果、例えば制御量が安定する動作
信号及び操作量の対を前記結合荷重から得ることがで
き、制御装置の特性を容易に決定ことができる。
ューラルネットワークを用いた制御装置であって、前記
ニューラルネットワークの第1層に配置され、動作信号
を構成する個々のデータ要素が入力される動作信号用ニ
ューロンモデルと、操作量を構成する個々のデータ要素
が入力される操作量用ニューロンモデルと、を含む第1
層ニューロンモデル群と、前記ニューラルネットワーク
の第2層に配置され、前記動作信号用及び操作量用ニュ
ーロンモデルと結合する第2層ニューロンモデル群と、
前記第1層ニューロンモデル群に入力される動作信号及
び操作量と、該動作信号及び操作量に対する個別評価情
報と、に基づいて、前記第1層ニューロンモデル群と前
記第2層ニューロンモデル群との間の結合荷重を更新す
る学習手段と、動作信号と前記結合荷重とに基づき、該
動作信号に対応して出力すべき操作量を算出する操作量
算出手段と、を含むことを特徴とする。
肯定的な動作信号及び操作量の対についての情報が記憶
される。このため、本発明では、ある動作信号が与えら
れると、その動作信号に対応する操作量を、該動作信号
及び結合荷重に基づいて算出することができる。たとえ
ば、前記操作量算出手段は、ある動作信号が与えられる
と、対応する操作量であって制御量の安定度の高いもの
を、動作信号及び結合荷重に基づいて算出することがで
きる。このため、本発明に係る制御装置によれば、制御
装置の好ましい特性をニューラルネットワークに学習さ
せ、その学習内容に従って、制御対象を制御することが
できる。また、制御対象の制御と並行して前記学習手段
による学習を行わせれば、該制御対象を適応的に制御す
ることができる。
出手段は、前記第2層ニューロンモデル群に含まれるニ
ューロンモデルと前記動作信号用ニューロンモデルとの
間の結合荷重と、動作信号と、に基づき、前記第2層ニ
ューロンモデル群に含まれる各ニューロンモデルの該動
作信号に対する部分反応度を算出する手段と、前記第2
層ニューロンモデル群に含まれるニューロンモデルと前
記制御量用ニューロンモデルとの間の結合荷重と、前記
部分反応度と、に基づき、操作量を算出する手段と、を
含むことを特徴とする。
第2層ニューロンモデル群の各部分反応度が、まず算出
される。そして、その部分反応度と、前記制御用ニュー
ロンモデルと第2層ニューロンモデル群との間の結合荷
重と、に基づいて、動作信号に対応する制御量を算出す
る。例えば前記制御用ニューロンモデルと第2層ニュー
ロンモデル群との間の結合荷重を、前記部分反応度によ
り重み付け加算して、制御量を算出すればよい。こうす
れば、ニューラルネットワークの学習内容に基づき、動
作信号に対応する制御量を算出することができる。
は、第1データに基づいて第2データを生成するデータ
生成装置であって、ニューラルネットワークの第1層に
配置され、前記第1データの個々のデータ要素に対応す
る第1ニューロンモデルと、前記第2データの個々のデ
ータ要素に対応する第2ニューロンモデルと、を含む第
1層ニューロンモデル群と、前記ニューラルネットワー
クの第2層に配置され、前記第1及び第2ニューロンモ
デルと結合する第2層ニューロンモデル群と、前記第1
層ニューロンモデル群と前記第2層ニューロンモデル群
との間の結合荷重と、第1データとに基づき、第2デー
タを算出するデータ算出手段と、を含み、学習段階で
は、前記第1層ニューロンモデル群に学習用の第1及び
第2データの対が順次入力され、該学習用の第1及び第
2データの対とそれに対する個別評価情報とに基づい
て、前記第1層ニューロンモデル群と前記第2層ニュー
ロンモデル群との間の結合荷重が更新されることを特徴
とする。
の相関関係とその評価をニューラルネットワークに学習
させておき、その学習内容に従って、ある与えられた第
1データに対応する第2データを生成することができ
る。
方法は、対象装置の入力データ及び出力データの関係を
決定する入出力特性決定方法であって、前記入力データ
の個々のデータ要素に対応する入力データ用ニューロン
モデルと、前記出力データの個々のデータ要素に対応す
る出力データ用ニューロンモデルと、をニューラルネッ
トワークの第1層に配置し、前記入力データ用及び出力
データ用ニューロンモデルと結合するニューロンモデル
群を前記ニューラルネットワークの第2層に配置し、学
習段階では、前記第1層に配置されるニューロンモデル
に学習用の入力及び出力データの対を順次入力し、該デ
ータの対とそれに対する個別評価情報とに基づいて、前
記入力データ用及び出力データ用ニューロンモデルと前
記第2層に配置されるニューロンモデル群との間の結合
荷重を更新し、入出力特性決定段階では、前記結合荷重
に基づいて前記対象装置の入出力特性を決定することを
特徴とする。
の個別評価をニューラルネットワークに学習させてお
き、対象装置の入出力特性を学習結果に基づいて決定す
ることができる。
法は、第1データと第2データとの間の相関関係を評価
する相関関係評価方法であって、前記第1データの個々
のデータ要素に対応する第1データ用ニューロンモデル
と、前記第2データの個々のデータ要素に対応する第2
データ用ニューロンモデルと、をニューラルネットワー
クの第1層に配置し、前記第1データ用及び第2データ
用ニューロンモデルと結合するニューロンモデル群を前
記ニューラルネットワークの第2層に配置し、学習段階
では、前記第1層に配置されるニューロンモデルに学習
用の第1及び第2データの対を順次入力し、該データの
対とそれに対する個別評価情報とに基づいて、前記第1
データ用及び第2データ用ニューロンモデルと前記第2
層に配置されるニューロンモデル群との間の結合荷重を
更新し、評価段階では、前記結合荷重に基づいて第1デ
ータと第2データとの間の相関関係を評価することを特
徴とする。
評価に基づいて、二つのデータの相関関係を評価するこ
とができる。
について図面に基づいて詳細に説明する。
ラルネットワークを用いて、二つのデータの相関関係を
評価する方法、及び対象装置の入出力特性を決定する方
法、とりわけ制御装置における動作信号と操作量との関
係を決定する方法について説明する。
ファベット文字を使用するが、大文字アルファベットが
ベクトル量を表し、小文字アルファベットがスカラー量
を表すものとする。
る図であり、本方法で用いるニューラルネットワークの
構成が示されている。同図に示すニューラルネットワー
クでは、入力層10に配置されるニューロンモデル(以
下では「ユニット」ともいう。)に学習ベクトルIが入
力されており、それら入力層10のニューロンモデルは
競合層12に配置されるニューロンモデルとシナプス結
合している。
は大きく2つに分類される。第1分類に属するのは第1
ベクトルXが入力されるニューロンモデルであり、第2
分類に属するのは第2ベクトルYが入力されるニューロ
ンモデルである。すなわち、学習ベクトルIは次式
(1)に示すように第1ベクトルXと第2ベクトルYと
から構成される。
クトルXの成分数(データ要素数)に等しい個数存在
し、第2分類に属するニューロンモデルは、第2ベクト
ルYの成分数に等しい個数存在する。ここでは、第1ベ
クトルXがn個の成分を有するものとし、第2ベクトル
Yがm個の成分を有するものとする。このため、入力層
10には合計(n+m)個のニューロンモデルが配置さ
れている。
したい場合には、一方のデータを第1ベクトルに対応さ
せ、他方のデータを第2ベクトルに対応させればよい。
また、対象装置の入出力特性を決定する場合には、当該
対象装置の入力信号を第1ベクトルに対応させ、出力信
号を第2ベクトルに対応させればよい。さらに、制御装
置における動作信号と操作量との関係を決定する場合に
は、動作信号を第1ベクトルに対応させ、操作量を第2
ベクトルに対応させればよい。
ンモデルは、競合層12に配置されたi番目のニューロ
ンモデルと、結合荷重wijにてシナプス結合しているも
のとする。また、第2分類に属するk番目のニューロン
モデルは、競合層12に配置されたi番目のニューロン
モデルと、結合荷重uikにてシナプス結合しているもの
とする。そして、結合荷重wijと結合荷重uikとによ
り、競合層12のi番目のニューロンモデルに関する重
みベクトルWiが、次式(2)に示すようにして構成さ
れる。
させる際の手順を説明するフロー図である。
ネットワークに学習をさせるには、まずs個の学習ベク
トルIl(l=1〜s)を準備する(S101)。この
学習ベクトルは、第1ベクトルXと第2ベクトルYの対
であり、ランダムなベクトルの対であって、それら対の
各々対しては個別評価情報も準備されていなければなら
ない。たとえば、本方法により制御装置の特性を決定し
ようとする場合には、動作信号と操作量の対を学習ベク
トルIlに選び、その対が制御装置の入出力とされた場
合に制御量がどの様な振る舞いをするかを表す情報等を
個別評価情報とすればよい。
するとともに(S102)、学習ベクトルIlの添え字
である変数lを0に設定する(S103)。そして、S
101で準備した学習ベクトルIlの各成分を、図1に
示したニューラルネットワークの入力層10に配置され
たニューロンモデルに入力する(S104)。
ると、勝者ユニット(勝ちニューロン)、即ち学習ベク
トルIlに対して最も反応する競合層12のニューロン
モデルが決定される(S105)。具体的には、次式
(3)により、競合層12のi番目のニューロンモデル
と入力層10のニューロンモデルとの間のユークリッド
距離Iiを求め、それが最も短いものを勝者ユニットと
する。
ファジイ類似性尺度Siを競合層12の各ニューロンモ
デルについて算出し、それが最も小さな値をとるニュー
ロンモデルを勝者ユニットとしてもよい。同式(4)に
おいて、x∧wは、xとwのいずれか小さな値を意味す
る。またx∨wは、xとwのいずれか大きな値を意味す
る。
ーロンモデル、即ち近傍ユニットを決定する(S10
6)。たとえば、競合層12のi番目のニューロンモデ
ルを勝者ユニットとした場合、競合層12のニューロン
モデルが図1に示すように直線状に配置されていると仮
定すれば、競合層(i−2)番目から(i+2)番目の
ニューロンモデル等、前後するニューロンモデルを近傍
ユニットに選べばよい。
ユニットについて、重みベクトルWiを次式(5)及び
(6)により更新する(S107)。
定的である場合に用いられる更新式である。同式(5)
においてWi oldは更新前の重みベクトルWiであり、Wi
newは更新後の重みベクトルWiである。また、α(t)
は学習係数であり、時間とともに減少するtの関数が採
用されている。さらに、Elは正の実数値をとる評価値
であり、学習ベクトルIlに与えられる肯定的な個別評
価情報を表す。
新により、学習ベクトルIlに対する評価が肯定的であ
れば、勝者ユニット及びその近傍ユニットの重みベクト
ルWiは、学習係数α(t)及び評価値Elに比例して、
学習ベクトルIlに近づくことになる。
lに対する評価が否定的である場合に用いられる更新式
である。同式(6)において、signは符号関数であ
る。また、Elは負の実数値をとる評価値であり、学習
ベクトルIlに与えられる否定的な個別評価情報を表
す。
新により、学習ベクトルIlに対する評価が否定的であ
れば、勝者ユニット及びその近傍ユニットの重みベクト
ルWiは学習ベクトルIlから遠ざかることになる。その
際、重みベクトルWiが学習ベクトルIlから遠ざかる距
離は学習係数α(t)及び評価値Elに比例する。ま
た、同式(6)の右辺の指数関数の働きにより、より近
い重みベクトルWjがより大きく学習ベクトルIlから遠
ざけられることになる。
(S108)、lをインクリメントし(S110)、次
の学習ベクトルIlをニューラルネットワークの入力層
10に与える(S104)。一方、変数lが最大値sに
達すれば(S108)、繰り返し回数Iteが設定値I
TEに達しているかを判断し(S109)、達していな
ければ繰り返し回数Iteをインクリメントするととも
に(S111)、変数lを0に戻し(S103)、再び
学習ベクトルI0をニューラルネットワークの入力層1
0に与える(S104)。
トワークの学習ベクトルとして、対象装置の入出力デー
タ等の二つのデータの対を用いている。こうしてニュー
ラルネットワークに学習をさせると、以下に説明するよ
うに、ニューラルネットワークの結合荷重から、ある評
価を与えられるデータ対の相関関係が得られるようにな
る。
ベクトルYとしていずれも1成分のみを有するものを採
用した場合の、ニューラルネットワークの学習の様子を
模式的に示す図である。この場合、学習ベクトルIは2
成分を有し、重みベクトルWiは第1ベクトルX及び第
2ベクトルYに対応して2成分を有することになる。
面)、重みベクトル空間(平面)、競合層12が順に描
かれている。学習ベクトル空間は第1ベクトルX及び第
2ベクトルYに対応する座標軸を有しており、学習ベク
トルIが与えられると、それを平面上の一点に対応づけ
ることができるようになっている。一方、重みベクトル
空間は学習ベクトルWの2成分に対応する軸を有してお
り、学習ベクトルWiの終点が平面上の一点にそれぞれ
描かれるようになっている。
与えられると、競合層12に配置されるニューロンモデ
ルから勝者ユニットが決定される。この勝者ユニット
は、学習ベクトルIを重みベクトル空間上の一点に表し
た場合に、その点に最も近い点に終点を有する学習ベク
トルWiである。続いて、その勝者ユニットに対する近
傍ユニットも選ばれる。同図では競合層12にニューロ
ンモデルを平面的に配置しているため、勝者ユニットの
周囲を取り巻くユニットが近傍ユニットに選ばれる。
る個別評価が肯定的であって評価値Eが正の値をとる場
合、それら勝者ユニット及び近傍ユニットの重みベクト
ルWiが上式(5)に従って更新される。この場合、近
傍ユニットの重みベクトルWiは必ずしも勝者ユニット
の重みベクトルWiに類似するものとはなっていない。
しかしながら、学習が進むに従って勝者ユニットの重み
ベクトルWiと近傍ユニットの重みベクトルWiとは次第
に類似するようになる。
る学習ベクトルIに対する評価が否定的である場合、即
ち評価値Eが負の値をとる場合、上式(6)に従って、
勝者ユニット及び近傍ユニットの重みベクトルWiは当
該学習ベクトルIから遠ざかるように更新される。
トル空間の様子を示す図である。同図に示すように、学
習が相当程度に進むと重みベクトルWiの終点を表す各
点は肯定的な評価を与えられた学習ベクトルIの近傍に
集結する。従って、この重みベクトルWiの分布を調べ
ることにより、学習ベクトルIに含まれる第1ベクトル
Xと第2ベクトルYとの関係を評価することができる。
に入力される動作信号を採用し、第2ベクトルYとして
制御装置から出力される操作量を採用した場合、それら
動作信号及び操作量のデータ対と個別評価とを予め十分
にニューラルネットワークに学習させると、同図(a)
に示すように、安定的に制御量を制御できる動作信号と
操作量とのデータ対が重みベクトル空間のおける多数の
重みベクトルWiの終点として得られることになる。こ
のため、例えば同図(a)に示される重みベクトルWi
の終点を補間する等して、同図(b)に示すような、動
作信号と操作量との関係を表す関数を容易に得ることが
できる。この結果、その関数を制御装置に予め設定する
ことにより、ある動作信号を与えられると適切な操作量
を出力する制御装置を容易に設計することができる。こ
の点は、対象装置の入出力特性を決定する場合にも同様
に当てはまる。
2ベクトルYの相関関係を、ニューラルネットワークの
学習後に一旦評価してもよいが、そのような評価をせず
とも、第1ベクトルXに対応する好ましい(肯定的評価
が得られるであろう)第2ベクトルYを、重みベクトル
Wiに基づいて算出することができる。
ルXに対応する好ましい第2ベクトルYを算出する手順
を説明するフロー図である。
ず第1ベクトルXのみをニューラルネットワークの入力
層10に与える。ここでの第1ベクトルXは、学習段階
で用いた学習ベクトルの構成要素たる第1ベクトルXと
区別するため、特に事実入力ベクトルX0と記す(S2
01)。また以下では、この事実入力ベクトルX0に対
応する第2ベクトルYを、学習段階で用いた学習ベクト
ルの構成要素たる第2ベクトルYと区別するため、特に
事実出力ベクトルY0と記す。
層12上の各ニューロンモデルの出力zp(ここでは、
「部分反応度」という。)を、次式(7)に従って算出
する(S202)。同式(7)においてβは所与の定数
である。
Uprとに基づき、次式(8)に従って事実出力ベクトル
Y0を算出する(S203)。図7は、この事実出力ベ
クトルY0の算出処理の概念を示すものである。
み付け加算すると、事実出力ベクトルY0のr番目の成
分が算出できることを表している。
ルYとしていずれも1成分のみを有するものを採用した
場合、図8に示すようにして重みベクトルWが重みベク
トル空間上に表されていれば、ある事実入力ベクトルX
0が与えられると、以上説明した処理では、領域14内
に重みベクトルWiの終点を有するニューロンモデルを
中心として、式(7)で算出される部分反応度zpが大
きな値を有することになる。そして、式(8)を計算す
ると、この領域14内に重みベクトルWiの終点を有す
るニューロンモデルについての結合荷重uの値が支配的
となり、同図の矢印16の辺りに事実出力ベクトルY0
の値が得られることになる。
第1ベクトルXに対応する好ましい第2ベクトルYを算
出することができる。
た実施の形態1に係る方法を応用した適応制御装置につ
いて説明する。
の構成を示す図である。同図に示す適応制御装置は、図
1に示したニューラルネットワークをハードウェアとし
て維持・更新するものであり、制御部44と学習部46
との間で第1結合荷重記憶部20及び第2結合荷重記憶
部22が共有されており、双方から随時アクセスするこ
とができるようになっている。この第1結合荷重記憶部
20は図1に示したニューラルネットワークにおける結
合荷重wijを記憶するものであり、第2結合荷重記憶部
は図1に示したニューラルネットワークにおける結合荷
重uikを記憶するものである。
と、評価部38と、第1及び第2結合荷重記憶部20,
22と、を含んでいる。評価部38は、制御対象40か
ら得られる制御量を評価して、評価値Eを結合荷重更新
部28に与えるようになっている。評価値Eには、具体
的には制御量の安定性等を表す情報を採用することがで
き、その値は−1〜+1に亘って連続する値をとる。
出力される操作量Yもまたスイッチ34及び遅延素子3
2を介して入力されるようになっている。また、基準入
力とフィードバック量との差分である動作信号Xも、加
算器42により生成され、遅延素子30を介して結合荷
重更新部28に入力されるようになっている。なお、遅
延素子30,32は、動作信号Xと操作量Yと評価値E
とが互いに対応するものとなるように、遅延時間がそれ
ぞれ設定される。また、動作信号Xはn個のデータ要素
を有し、操作量Yはm個のデータ要素を有し、それらは
複数本の信号線により伝送される。
(5)及び(6)に基づいて重みベクトルWiをリアル
タイムに更新し、更新後の結合荷重wij,uikを第1及
び第2結合荷重記憶部20,22にそれぞれ格納する。
4と、操作量算出部26と、第1及び第2結合荷重記憶
部20,22と、を含んでいる。部分反応度算出部24
には第1結合荷重記憶部20から結合荷重wpqが入力さ
れるとともに、加算器42から事実動作信号(事実入力
ベクトル)X0が入力されるようになっている。そし
て、部分反応度算出部24では、これらの情報をもと
に、上式(7)に従って部分反応度zpを全ての競合層
12上のニューロンモデルについて算出する。
記憶部22から結合荷重uprが入力されるとともに、部
分反応度算出部24から部分反応度zpが入力されるよ
うになっている。そして、操作量算出部では、これらの
情報をもとに、上記式(8)に従って事実操作量(事実
出力ベクトル)Y0を算出する。そして、算出された事
実操作量Y0が制御対象40に与えられる。
40の安定性等の諸評価要素に基づいて第1及び第2結
合荷重記憶部20,22の内容が随時更新される。そし
て、その随時更新される第1及び第2結合荷重記憶部2
0,22の内容に従って、事実動作信号X0に対応す
る、好ましい(肯定的な評価を得られるであろう)事実
操作量Y0が制御部44により算出され、制御対象40
に与えられる。このため、制御対象40の特性が時とと
もに変化した場合であっても、その変化に適応的に追従
し、好適な制御特性を維持することができる。
及び2は種々の変形実施が可能である。たとえば、以上
の説明ではニューラルネットワークの結合荷重wij,u
ikの更新、即ち重みベクトルWiの更新を、式(5)及
び式(6)に従って行うようにしたが、その他の更新方
法を採用してもよい。
トルに対応してあらゆる情報を採用することができる。
たとえば、学習ベクトル毎の確信度、重要度、刺激程度
などを評価値ElやEとして採用することができる。
では、基準入力としてランダムな値を加算器42に与え
るとともに、スイッチ34を端子36側に切り換えて該
端子36からランダムな値を与え、実際の装置の使用に
先立ち、ニューラルネットワークの学習をある程度済ま
せておくようにしてもよい。
ューラルネットワークの構成を示す図である。
順を説明するフロー図である。
様子を説明する図である。
ある。
事実入力ベクトルから事実出力ベクトルを算出する手順
を説明するフロー図である。
て、事実入力ベクトルに対する競合層の各ニューロンモ
デルの部分反応度が算出される様子を示す図である。
基づいて、事実入力ベクトルに対応する事実出力ベクト
ルが算出される様子を示す図である。
ある。
構成を示す図である。
部、22 第2結合荷重記憶部、24 部分反応度算出
部、26 操作量算出部、28 結合荷重更新部、3
0,32 遅延素子、34 スイッチ、36 端子、3
8 評価部、40制御対象、42 加算器、44 制御
部、46 学習部。
Claims (7)
- 【請求項1】 制御装置の製造方法であって、 動作信号を構成する個々のデータ要素に対応する動作信
号用ニューロンモデルと、操作量を構成する個々のデー
タ要素に対応する操作量用ニューロンモデルと、をニュ
ーラルネットワークの第1層に配置し、 前記動作信号用及び操作量用ニューロンモデルと結合す
るニューロンモデル群を前記ニューラルネットワークの
第2層に配置し、 前記第1層に配置されるニューロンモデルに、学習用の
動作信号及び操作量の対を順次入力し、該動作信号及び
操作量の対とそれに対する個別評価情報とに基づいて、
前記動作信号用及び操作量用ニューロンモデルと前記第
2層に配置されるニューロンモデル群との間の結合荷重
を更新し、 更新後の前記結合荷重に基づいて前記制御装置の入出力
特性を決定し、前記制御装置を製造することを特徴とす
る方法。 - 【請求項2】 ニューラルネットワークを用いた制御装
置であって、 前記ニューラルネットワークの第1層に配置され、動作
信号を構成する個々のデータ要素が入力される動作信号
用ニューロンモデルと、操作量を構成する個々のデータ
要素が入力される操作量用ニューロンモデルと、を含む
第1層ニューロンモデル群と、 前記ニューラルネットワークの第2層に配置され、前記
動作信号用及び操作量用ニューロンモデルと結合する第
2層ニューロンモデル群と、 前記第1層ニューロンモデル群に入力される動作信号及
び操作量と、該動作信号及び操作量に対する個別評価情
報と、に基づいて、前記第1層ニューロンモデル群と前
記第2層ニューロンモデル群との間の結合荷重を更新す
る学習手段と、 動作信号と前記結合荷重とに基づき、該動作信号に対応
して出力すべき操作量を算出する操作量算出手段と、 を含むことを特徴とする制御装置。 - 【請求項3】 請求項2に記載の制御装置において、 前記操作量算出手段は、 前記第2層ニューロンモデル群に含まれるニューロンモ
デルと前記動作信号用ニューロンモデルとの間の結合荷
重と、動作信号と、に基づき、前記第2層ニューロンモ
デル群に含まれる各ニューロンモデルの該動作信号に対
する部分反応度を算出する手段と、 前記第2層ニューロンモデル群に含まれるニューロンモ
デルと前記制御量用ニューロンモデルとの間の結合荷重
と、前記部分反応度と、に基づき、操作量を算出する手
段と、 を含むことを特徴とする制御装置。 - 【請求項4】 請求項2又は3に記載の制御装置におい
て、 前記個別評価情報は制御量に基づいて生成されることを
特徴とする制御装置。 - 【請求項5】 第1データに基づいて第2データを生成
するデータ生成装置であって、 ニューラルネットワークの第1層に配置され、前記第1
データの個々のデータ要素に対応する第1ニューロンモ
デルと、前記第2データの個々のデータ要素に対応する
第2ニューロンモデルと、を含む第1層ニューロンモデ
ル群と、 前記ニューラルネットワークの第2層に配置され、前記
第1及び第2ニューロンモデルと結合する第2層ニュー
ロンモデル群と、 前記第1層ニューロンモデル群と前記第2層ニューロン
モデル群との間の結合荷重と、第1データとに基づき、
第2データを算出するデータ算出手段と、を含み、 学習段階では、前記第1層ニューロンモデル群に学習用
の第1及び第2データの対が順次入力され、該学習用の
第1及び第2データの対とそれに対する個別評価情報と
に基づいて、前記第1層ニューロンモデル群と前記第2
層ニューロンモデル群との間の結合荷重が更新されるこ
とを特徴とするデータ生成装置。 - 【請求項6】 対象装置の入力データ及び出力データの
関係を決定する入出力特性決定方法であって、 前記入力データの個々のデータ要素に対応する入力デー
タ用ニューロンモデルと、前記出力データの個々のデー
タ要素に対応する出力データ用ニューロンモデルと、を
ニューラルネットワークの第1層に配置し、 前記入力データ用及び出力データ用ニューロンモデルと
結合するニューロンモデル群を前記ニューラルネットワ
ークの第2層に配置し、 学習段階では、前記第1層に配置されるニューロンモデ
ルに学習用の入力及び出力データの対を順次入力し、該
データの対とそれに対する個別評価情報とに基づいて、
前記入力データ用及び出力データ用ニューロンモデルと
前記第2層に配置されるニューロンモデル群との間の結
合荷重を更新し、 入出力特性決定段階では、前記結合荷重に基づいて前記
対象装置の入出力特性を決定することを特徴とする入出
力特性決定方法。 - 【請求項7】 第1データと第2データとの間の相関関
係を評価する相関関係評価方法であって、 前記第1データの個々のデータ要素に対応する第1デー
タ用ニューロンモデルと、前記第2データの個々のデー
タ要素に対応する第2データ用ニューロンモデルと、を
ニューラルネットワークの第1層に配置し、 前記第1データ用及び第2データ用ニューロンモデルと
結合するニューロンモデル群を前記ニューラルネットワ
ークの第2層に配置し、 学習段階では、前記第1層に配置されるニューロンモデ
ルに学習用の第1及び第2データの対を順次入力し、該
データの対とそれに対する個別評価情報とに基づいて、
前記第1データ用及び第2データ用ニューロンモデルと
前記第2層に配置されるニューロンモデル群との間の結
合荷重を更新し、 評価段階では、前記結合荷重に基づいて第1データと第
2データとの間の相関関係を評価することを特徴とする
相関関係評価方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29369098A JP4267726B2 (ja) | 1998-10-15 | 1998-10-15 | 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29369098A JP4267726B2 (ja) | 1998-10-15 | 1998-10-15 | 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2000122991A true JP2000122991A (ja) | 2000-04-28 |
JP2000122991A5 JP2000122991A5 (ja) | 2005-12-08 |
JP4267726B2 JP4267726B2 (ja) | 2009-05-27 |
Family
ID=17797982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29369098A Expired - Fee Related JP4267726B2 (ja) | 1998-10-15 | 1998-10-15 | 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4267726B2 (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008027176A (ja) * | 2006-07-20 | 2008-02-07 | Kyushu Institute Of Technology | データ生成回路及びデータ生成方法 |
JP2008065477A (ja) * | 2006-09-05 | 2008-03-21 | Kyushu Institute Of Technology | データ処理装置及び方法 |
JP2008117090A (ja) * | 2006-11-01 | 2008-05-22 | Kyushu Institute Of Technology | データ処理装置、データ処理方法及びプログラム |
-
1998
- 1998-10-15 JP JP29369098A patent/JP4267726B2/ja not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008027176A (ja) * | 2006-07-20 | 2008-02-07 | Kyushu Institute Of Technology | データ生成回路及びデータ生成方法 |
JP2008065477A (ja) * | 2006-09-05 | 2008-03-21 | Kyushu Institute Of Technology | データ処理装置及び方法 |
JP2008117090A (ja) * | 2006-11-01 | 2008-05-22 | Kyushu Institute Of Technology | データ処理装置、データ処理方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4267726B2 (ja) | 2009-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111523047B (zh) | 基于图神经网络的多关系协同过滤算法 | |
Kuo et al. | Integration of particle swarm optimization and genetic algorithm for dynamic clustering | |
Chiang et al. | A self-learning fuzzy logic controller using genetic algorithms with reinforcements | |
CN110782015A (zh) | 神经网络的网络结构优化器的训练方法、装置及存储介质 | |
Almeida et al. | A multi-objective memetic and hybrid methodology for optimizing the parameters and performance of artificial neural networks | |
CN110046710A (zh) | 一种神经网络的非线性函数极值优化方法及系统 | |
US9934470B2 (en) | Production equipment including machine learning system and assembly and test unit | |
CN112329948A (zh) | 一种多智能体策略预测方法及装置 | |
CN114692310B (zh) | 一种基于Dueling DQN的虚实融合一二级分离模型参数优化方法 | |
CN115186097A (zh) | 一种基于知识图谱和强化学习的交互式推荐方法 | |
JP7381814B2 (ja) | マルチタスク向けの予めトレーニング言語モデルの自動圧縮方法及びプラットフォーム | |
Li | Neural network models for intelligent support of mark‐up estimation | |
CN110414718A (zh) | 一种深度学习下的配电网可靠性指标优化方法 | |
CN112990485A (zh) | 基于强化学习的知识策略选择方法与装置 | |
CN112685657A (zh) | 一种基于多模态交叉融合图网络的会话社交推荐方法 | |
CN115329683A (zh) | 航空行李在线装载规划方法、装置、设备及介质 | |
CN116933948A (zh) | 基于改进海鸥算法与反向传播神经网络的预测方法和系统 | |
CN108229640B (zh) | 情绪表达的方法、装置和机器人 | |
CN113641907A (zh) | 一种基于进化算法的超参数自适应深度推荐方法及装置 | |
JP2000122991A (ja) | 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法 | |
EP0583217B1 (en) | Optimisation of feedforward neural networks | |
CN110489435A (zh) | 基于人工智能的数据处理方法、装置、及电子设备 | |
CN113887570B (zh) | 一种基于神经网络的太阳耀斑二分类预测方法 | |
JP2002288625A (ja) | 多目的最適化方法、プログラムおよびプラン立案装置 | |
JP2023027983A (ja) | 学習装置、方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20051014 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051014 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20051014 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081021 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090127 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090219 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |