JP2000122991A - 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法 - Google Patents

制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法

Info

Publication number
JP2000122991A
JP2000122991A JP10293690A JP29369098A JP2000122991A JP 2000122991 A JP2000122991 A JP 2000122991A JP 10293690 A JP10293690 A JP 10293690A JP 29369098 A JP29369098 A JP 29369098A JP 2000122991 A JP2000122991 A JP 2000122991A
Authority
JP
Japan
Prior art keywords
data
neuron model
layer
input
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10293690A
Other languages
English (en)
Other versions
JP4267726B2 (ja
JP2000122991A5 (ja
Inventor
Retsu Yamakawa
烈 山川
Keiichi Horio
恵一 堀尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP29369098A priority Critical patent/JP4267726B2/ja
Publication of JP2000122991A publication Critical patent/JP2000122991A/ja
Publication of JP2000122991A5 publication Critical patent/JP2000122991A5/ja
Application granted granted Critical
Publication of JP4267726B2 publication Critical patent/JP4267726B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Feedback Control In General (AREA)

Abstract

(57)【要約】 【課題】 制御装置の特性を、複数の動作信号及び操作
量の対に対する個別評価に基づいて容易に決定する。 【解決手段】 動作信号を表す第1ベクトルXと操作量
を表す第2ベクトルYとで一つの学習ベクトルI(X,
Y)を構成し、該学習ベクトルIを入力層に与える。そ
して、その学習ベクトルIの表す動作信号及び操作量の
対で制御量が安定するのであれば、競合層12における
勝者ユニット及び近傍ユニットと、入力層と、の間の重
みベクトルW(w,u)を、学習ベクトルIに近づける
よう、ネットワークを更新する。こうすれば、安定的な
制御が可能な動作信号及び操作量の対が重みベクトル空
間に表れる。この結果、複数の動作信号及び操作量の対
に対する個別評価に基づき、制御装置の特性を決定する
ことができる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は制御装置の製造方
法、制御装置、データ生成装置、入出力特性決定方法及
び相関関係評価方法に関し、特に、ニューラルネットワ
ークを用いた、制御装置の製造方法、制御装置、データ
生成装置、入出力特性決定方法及び相関関係評価方法に
関する。
【0002】
【従来の技術及び発明が解決しようとする課題】高性能
な制御装置を設計するにあたっては、制御対象の特性
や、その制御対象が置かれる環境について正確な情報が
予め入手されていなければならない。しかしながら、現
実にはそれらの情報を正しく入手するのは困難な場合が
多い。
【0003】このため、多数の動作信号及び操作量の対
を実際に制御対象に対して与え、どのような制御結果が
得られるかをしらみ潰しに調べていくことにより、制御
装置の特性を決定するのが実際的である。
【0004】この際、多数の動作信号及び操作量の対
と、その対に対する個別評価に基づいて、動作信号及び
操作量の関係を評価する手法が提案されれば、その評価
結果に基づいて好ましい動作信号と操作量との関係を決
定し、制御装置を容易に設計・製造することができる。
【0005】また、以上のような制御装置の特性に限ら
ず、一般的に、二つのデータ(ベクトルデータを含む)
の相関関係を、個々のデータ対に対する個別評価に基づ
いて評価する方法が提案されれば、有意義である。
【0006】この点、ニューラルネットワーク技術は、
個々のデータとその個別評価を処理するのに最も優れた
技術といえるが、既存のニューラルネットワークのモデ
ルでは、単に入力データを分類分けするのみであった
り、単に写像の入出力関係を実現するものであり、二つ
のデータの相関関係を評価することのできるニューラル
ネットワークのモデルは未だ提案されていない。
【0007】本発明は上記課題に鑑みてなされたもので
あって、第1の目的は、制御装置の特性を、複数の動作
信号及び操作量の対に対する個別評価に基づいて容易に
決定することのできる制御装置の製造方法を提供するこ
とにある。
【0008】また、第2の目的は、制御装置の好ましい
特性をニューラルネットワークに学習させ、その学習内
容に従って、制御対象を制御することのできる制御装置
を提供することにある。
【0009】また、第3の目的は、二つのデータの相関
関係とその評価とをニューラルネットワークに学習させ
ておき、その学習内容に従って、あるデータに対応する
データを生成することのできるデータ生成装置を提供す
ることにある。
【0010】また、第4の目的は、対象装置の入出力特
性を、複数の入出力データの対に対する個別評価に基づ
いて容易に決定することのできる入出力特性決定方法を
提供することにある。
【0011】さらに、第5の目的は、個々のデータ対に
対する個別評価に基づいて、二つのデータの相関関係を
評価することのできる相関関係評価方法を提供すること
にある。
【0012】
【課題を解決するための手段】(1)上記課題を解決す
るために、本発明に係る制御装置の製造方法は、動作信
号を構成する個々のデータ要素に対応する動作信号用ニ
ューロンモデルと、操作量を構成する個々のデータ要素
に対応する操作量用ニューロンモデルと、をニューラル
ネットワークの第1層に配置し、前記動作信号用及び操
作量用ニューロンモデルと結合するニューロンモデル群
を前記ニューラルネットワークの第2層に配置し、前記
第1層に配置されるニューロンモデルに、学習用の動作
信号及び操作量の対を順次入力し、該動作信号及び操作
量の対とそれに対する個別評価情報とに基づいて、前記
動作信号用及び操作量用ニューロンモデルと前記第2層
に配置されるニューロンモデル群との間の結合荷重を更
新し、更新後の前記結合荷重に基づいて前記制御装置の
入出力特性を決定し、前記制御装置を製造することを特
徴とする。
【0013】本発明では学習用の動作信号及び操作量の
対が第1層のニューロンモデルに順次入力され、当該学
習用の動作信号及び操作量の対と、例えば制御量の安定
度等の前記個別評価情報と、に基づき、前記結合荷重が
更新される。こうすれば、入出力関係が類似する動作信
号及び操作量の対に対しては、第2層において近傍に位
置するニューロンモデルが反応するよう、前記結合荷重
が順次更新されるため、学習後の結合荷重に基づいて、
ある個別評価に対応する動作信号及び操作量の対を得る
ことができる。この結果、例えば制御量が安定する動作
信号及び操作量の対を前記結合荷重から得ることがで
き、制御装置の特性を容易に決定ことができる。
【0014】(2)また、本発明に係る制御装置は、ニ
ューラルネットワークを用いた制御装置であって、前記
ニューラルネットワークの第1層に配置され、動作信号
を構成する個々のデータ要素が入力される動作信号用ニ
ューロンモデルと、操作量を構成する個々のデータ要素
が入力される操作量用ニューロンモデルと、を含む第1
層ニューロンモデル群と、前記ニューラルネットワーク
の第2層に配置され、前記動作信号用及び操作量用ニュ
ーロンモデルと結合する第2層ニューロンモデル群と、
前記第1層ニューロンモデル群に入力される動作信号及
び操作量と、該動作信号及び操作量に対する個別評価情
報と、に基づいて、前記第1層ニューロンモデル群と前
記第2層ニューロンモデル群との間の結合荷重を更新す
る学習手段と、動作信号と前記結合荷重とに基づき、該
動作信号に対応して出力すべき操作量を算出する操作量
算出手段と、を含むことを特徴とする。
【0015】上述のように前記結合荷重には個別評価が
肯定的な動作信号及び操作量の対についての情報が記憶
される。このため、本発明では、ある動作信号が与えら
れると、その動作信号に対応する操作量を、該動作信号
及び結合荷重に基づいて算出することができる。たとえ
ば、前記操作量算出手段は、ある動作信号が与えられる
と、対応する操作量であって制御量の安定度の高いもの
を、動作信号及び結合荷重に基づいて算出することがで
きる。このため、本発明に係る制御装置によれば、制御
装置の好ましい特性をニューラルネットワークに学習さ
せ、その学習内容に従って、制御対象を制御することが
できる。また、制御対象の制御と並行して前記学習手段
による学習を行わせれば、該制御対象を適応的に制御す
ることができる。
【0016】また、本発明の一態様では、前記操作量算
出手段は、前記第2層ニューロンモデル群に含まれるニ
ューロンモデルと前記動作信号用ニューロンモデルとの
間の結合荷重と、動作信号と、に基づき、前記第2層ニ
ューロンモデル群に含まれる各ニューロンモデルの該動
作信号に対する部分反応度を算出する手段と、前記第2
層ニューロンモデル群に含まれるニューロンモデルと前
記制御量用ニューロンモデルとの間の結合荷重と、前記
部分反応度と、に基づき、操作量を算出する手段と、を
含むことを特徴とする。
【0017】この態様では動作信号の入力に対する前記
第2層ニューロンモデル群の各部分反応度が、まず算出
される。そして、その部分反応度と、前記制御用ニュー
ロンモデルと第2層ニューロンモデル群との間の結合荷
重と、に基づいて、動作信号に対応する制御量を算出す
る。例えば前記制御用ニューロンモデルと第2層ニュー
ロンモデル群との間の結合荷重を、前記部分反応度によ
り重み付け加算して、制御量を算出すればよい。こうす
れば、ニューラルネットワークの学習内容に基づき、動
作信号に対応する制御量を算出することができる。
【0018】(3)また、本発明に係るデータ生成装置
は、第1データに基づいて第2データを生成するデータ
生成装置であって、ニューラルネットワークの第1層に
配置され、前記第1データの個々のデータ要素に対応す
る第1ニューロンモデルと、前記第2データの個々のデ
ータ要素に対応する第2ニューロンモデルと、を含む第
1層ニューロンモデル群と、前記ニューラルネットワー
クの第2層に配置され、前記第1及び第2ニューロンモ
デルと結合する第2層ニューロンモデル群と、前記第1
層ニューロンモデル群と前記第2層ニューロンモデル群
との間の結合荷重と、第1データとに基づき、第2デー
タを算出するデータ算出手段と、を含み、学習段階で
は、前記第1層ニューロンモデル群に学習用の第1及び
第2データの対が順次入力され、該学習用の第1及び第
2データの対とそれに対する個別評価情報とに基づい
て、前記第1層ニューロンモデル群と前記第2層ニュー
ロンモデル群との間の結合荷重が更新されることを特徴
とする。
【0019】本発明によれば、第1データと第2データ
の相関関係とその評価をニューラルネットワークに学習
させておき、その学習内容に従って、ある与えられた第
1データに対応する第2データを生成することができ
る。
【0020】(4)また、本発明に係る入出力特性決定
方法は、対象装置の入力データ及び出力データの関係を
決定する入出力特性決定方法であって、前記入力データ
の個々のデータ要素に対応する入力データ用ニューロン
モデルと、前記出力データの個々のデータ要素に対応す
る出力データ用ニューロンモデルと、をニューラルネッ
トワークの第1層に配置し、前記入力データ用及び出力
データ用ニューロンモデルと結合するニューロンモデル
群を前記ニューラルネットワークの第2層に配置し、学
習段階では、前記第1層に配置されるニューロンモデル
に学習用の入力及び出力データの対を順次入力し、該デ
ータの対とそれに対する個別評価情報とに基づいて、前
記入力データ用及び出力データ用ニューロンモデルと前
記第2層に配置されるニューロンモデル群との間の結合
荷重を更新し、入出力特性決定段階では、前記結合荷重
に基づいて前記対象装置の入出力特性を決定することを
特徴とする。
【0021】こうすれば、対象装置の入出力データとそ
の個別評価をニューラルネットワークに学習させてお
き、対象装置の入出力特性を学習結果に基づいて決定す
ることができる。
【0022】(5)また、本発明に係る相関関係評価方
法は、第1データと第2データとの間の相関関係を評価
する相関関係評価方法であって、前記第1データの個々
のデータ要素に対応する第1データ用ニューロンモデル
と、前記第2データの個々のデータ要素に対応する第2
データ用ニューロンモデルと、をニューラルネットワー
クの第1層に配置し、前記第1データ用及び第2データ
用ニューロンモデルと結合するニューロンモデル群を前
記ニューラルネットワークの第2層に配置し、学習段階
では、前記第1層に配置されるニューロンモデルに学習
用の第1及び第2データの対を順次入力し、該データの
対とそれに対する個別評価情報とに基づいて、前記第1
データ用及び第2データ用ニューロンモデルと前記第2
層に配置されるニューロンモデル群との間の結合荷重を
更新し、評価段階では、前記結合荷重に基づいて第1デ
ータと第2データとの間の相関関係を評価することを特
徴とする。
【0023】こうすれば、個々のデータ対に対する個別
評価に基づいて、二つのデータの相関関係を評価するこ
とができる。
【0024】
【発明の実施の形態】以下、本発明の好適な実施の形態
について図面に基づいて詳細に説明する。
【0025】実施の形態1.実施の形態1では、ニュー
ラルネットワークを用いて、二つのデータの相関関係を
評価する方法、及び対象装置の入出力特性を決定する方
法、とりわけ制御装置における動作信号と操作量との関
係を決定する方法について説明する。
【0026】なお、以下の説明では各種変数を表すアル
ファベット文字を使用するが、大文字アルファベットが
ベクトル量を表し、小文字アルファベットがスカラー量
を表すものとする。
【0027】図1は、本実施の形態に係る方法を説明す
る図であり、本方法で用いるニューラルネットワークの
構成が示されている。同図に示すニューラルネットワー
クでは、入力層10に配置されるニューロンモデル(以
下では「ユニット」ともいう。)に学習ベクトルIが入
力されており、それら入力層10のニューロンモデルは
競合層12に配置されるニューロンモデルとシナプス結
合している。
【0028】入力層10に配置されるニューロンモデル
は大きく2つに分類される。第1分類に属するのは第1
ベクトルXが入力されるニューロンモデルであり、第2
分類に属するのは第2ベクトルYが入力されるニューロ
ンモデルである。すなわち、学習ベクトルIは次式
(1)に示すように第1ベクトルXと第2ベクトルYと
から構成される。
【0029】
【数1】 そして、第1分類に属するニューロンモデルは、第1ベ
クトルXの成分数(データ要素数)に等しい個数存在
し、第2分類に属するニューロンモデルは、第2ベクト
ルYの成分数に等しい個数存在する。ここでは、第1ベ
クトルXがn個の成分を有するものとし、第2ベクトル
Yがm個の成分を有するものとする。このため、入力層
10には合計(n+m)個のニューロンモデルが配置さ
れている。
【0030】たとえば、二つのデータの相関関係を評価
したい場合には、一方のデータを第1ベクトルに対応さ
せ、他方のデータを第2ベクトルに対応させればよい。
また、対象装置の入出力特性を決定する場合には、当該
対象装置の入力信号を第1ベクトルに対応させ、出力信
号を第2ベクトルに対応させればよい。さらに、制御装
置における動作信号と操作量との関係を決定する場合に
は、動作信号を第1ベクトルに対応させ、操作量を第2
ベクトルに対応させればよい。
【0031】また、第1分類に属するj番目のニューロ
ンモデルは、競合層12に配置されたi番目のニューロ
ンモデルと、結合荷重wijにてシナプス結合しているも
のとする。また、第2分類に属するk番目のニューロン
モデルは、競合層12に配置されたi番目のニューロン
モデルと、結合荷重uikにてシナプス結合しているもの
とする。そして、結合荷重wijと結合荷重uikとによ
り、競合層12のi番目のニューロンモデルに関する重
みベクトルWiが、次式(2)に示すようにして構成さ
れる。
【0032】
【数2】 図2は、以上説明したニューラルネットワークに学習を
させる際の手順を説明するフロー図である。
【0033】同フロー図に示すように、上記ニューラル
ネットワークに学習をさせるには、まずs個の学習ベク
トルIl(l=1〜s)を準備する(S101)。この
学習ベクトルは、第1ベクトルXと第2ベクトルYの対
であり、ランダムなベクトルの対であって、それら対の
各々対しては個別評価情報も準備されていなければなら
ない。たとえば、本方法により制御装置の特性を決定し
ようとする場合には、動作信号と操作量の対を学習ベク
トルIlに選び、その対が制御装置の入出力とされた場
合に制御量がどの様な振る舞いをするかを表す情報等を
個別評価情報とすればよい。
【0034】次に、学習繰り返し回数Iteを0に設定
するとともに(S102)、学習ベクトルIlの添え字
である変数lを0に設定する(S103)。そして、S
101で準備した学習ベクトルIlの各成分を、図1に
示したニューラルネットワークの入力層10に配置され
たニューロンモデルに入力する(S104)。
【0035】入力層10に学習ベクトルIlが与えられ
ると、勝者ユニット(勝ちニューロン)、即ち学習ベク
トルIlに対して最も反応する競合層12のニューロン
モデルが決定される(S105)。具体的には、次式
(3)により、競合層12のi番目のニューロンモデル
と入力層10のニューロンモデルとの間のユークリッド
距離Iiを求め、それが最も短いものを勝者ユニットと
する。
【0036】
【数3】 なお、勝者ユニットを決定する場合、次式(4)に示す
ファジイ類似性尺度Siを競合層12の各ニューロンモ
デルについて算出し、それが最も小さな値をとるニュー
ロンモデルを勝者ユニットとしてもよい。同式(4)に
おいて、x∧wは、xとwのいずれか小さな値を意味す
る。またx∨wは、xとwのいずれか大きな値を意味す
る。
【0037】
【数4】 次に、本方法では、勝者ユニットの近傍に位置するニュ
ーロンモデル、即ち近傍ユニットを決定する(S10
6)。たとえば、競合層12のi番目のニューロンモデ
ルを勝者ユニットとした場合、競合層12のニューロン
モデルが図1に示すように直線状に配置されていると仮
定すれば、競合層(i−2)番目から(i+2)番目の
ニューロンモデル等、前後するニューロンモデルを近傍
ユニットに選べばよい。
【0038】その後、本方法では、勝者ユニットと近傍
ユニットについて、重みベクトルWiを次式(5)及び
(6)により更新する(S107)。
【0039】
【数5】 まず、上式(5)は学習ベクトルIlに対する評価が肯
定的である場合に用いられる更新式である。同式(5)
においてWi oldは更新前の重みベクトルWiであり、Wi
newは更新後の重みベクトルWiである。また、α(t)
は学習係数であり、時間とともに減少するtの関数が採
用されている。さらに、Elは正の実数値をとる評価値
であり、学習ベクトルIlに与えられる肯定的な個別評
価情報を表す。
【0040】この式(5)による重みベクトルWiの更
新により、学習ベクトルIlに対する評価が肯定的であ
れば、勝者ユニット及びその近傍ユニットの重みベクト
ルWiは、学習係数α(t)及び評価値Elに比例して、
学習ベクトルIlに近づくことになる。
【0041】これに対して上式(6)は学習ベクトルI
lに対する評価が否定的である場合に用いられる更新式
である。同式(6)において、signは符号関数であ
る。また、Elは負の実数値をとる評価値であり、学習
ベクトルIlに与えられる否定的な個別評価情報を表
す。
【0042】この式(6)による重みベクトルWiの更
新により、学習ベクトルIlに対する評価が否定的であ
れば、勝者ユニット及びその近傍ユニットの重みベクト
ルWiは学習ベクトルIlから遠ざかることになる。その
際、重みベクトルWiが学習ベクトルIlから遠ざかる距
離は学習係数α(t)及び評価値Elに比例する。ま
た、同式(6)の右辺の指数関数の働きにより、より近
い重みベクトルWjがより大きく学習ベクトルIlから遠
ざけられることになる。
【0043】その後、変数lが最大値s未満であれば
(S108)、lをインクリメントし(S110)、次
の学習ベクトルIlをニューラルネットワークの入力層
10に与える(S104)。一方、変数lが最大値sに
達すれば(S108)、繰り返し回数Iteが設定値I
TEに達しているかを判断し(S109)、達していな
ければ繰り返し回数Iteをインクリメントするととも
に(S111)、変数lを0に戻し(S103)、再び
学習ベクトルI0をニューラルネットワークの入力層1
0に与える(S104)。
【0044】以上のように、本方法ではニューラルネッ
トワークの学習ベクトルとして、対象装置の入出力デー
タ等の二つのデータの対を用いている。こうしてニュー
ラルネットワークに学習をさせると、以下に説明するよ
うに、ニューラルネットワークの結合荷重から、ある評
価を与えられるデータ対の相関関係が得られるようにな
る。
【0045】図3及び図4は、第1ベクトルX及び第2
ベクトルYとしていずれも1成分のみを有するものを採
用した場合の、ニューラルネットワークの学習の様子を
模式的に示す図である。この場合、学習ベクトルIは2
成分を有し、重みベクトルWiは第1ベクトルX及び第
2ベクトルYに対応して2成分を有することになる。
【0046】図3には、上から学習ベクトル空間(平
面)、重みベクトル空間(平面)、競合層12が順に描
かれている。学習ベクトル空間は第1ベクトルX及び第
2ベクトルYに対応する座標軸を有しており、学習ベク
トルIが与えられると、それを平面上の一点に対応づけ
ることができるようになっている。一方、重みベクトル
空間は学習ベクトルWの2成分に対応する軸を有してお
り、学習ベクトルWiの終点が平面上の一点にそれぞれ
描かれるようになっている。
【0047】同図に示すように、ある学習ベクトルIが
与えられると、競合層12に配置されるニューロンモデ
ルから勝者ユニットが決定される。この勝者ユニット
は、学習ベクトルIを重みベクトル空間上の一点に表し
た場合に、その点に最も近い点に終点を有する学習ベク
トルWiである。続いて、その勝者ユニットに対する近
傍ユニットも選ばれる。同図では競合層12にニューロ
ンモデルを平面的に配置しているため、勝者ユニットの
周囲を取り巻くユニットが近傍ユニットに選ばれる。
【0048】そして、与えられた学習ベクトルIに対す
る個別評価が肯定的であって評価値Eが正の値をとる場
合、それら勝者ユニット及び近傍ユニットの重みベクト
ルWiが上式(5)に従って更新される。この場合、近
傍ユニットの重みベクトルWiは必ずしも勝者ユニット
の重みベクトルWiに類似するものとはなっていない。
しかしながら、学習が進むに従って勝者ユニットの重み
ベクトルWiと近傍ユニットの重みベクトルWiとは次第
に類似するようになる。
【0049】なお、同図では特に示さないが、入力され
る学習ベクトルIに対する評価が否定的である場合、即
ち評価値Eが負の値をとる場合、上式(6)に従って、
勝者ユニット及び近傍ユニットの重みベクトルWiは当
該学習ベクトルIから遠ざかるように更新される。
【0050】図4(a)は、学習が進んだ後の重みベク
トル空間の様子を示す図である。同図に示すように、学
習が相当程度に進むと重みベクトルWiの終点を表す各
点は肯定的な評価を与えられた学習ベクトルIの近傍に
集結する。従って、この重みベクトルWiの分布を調べ
ることにより、学習ベクトルIに含まれる第1ベクトル
Xと第2ベクトルYとの関係を評価することができる。
【0051】たとえば、第1ベクトルXとして制御装置
に入力される動作信号を採用し、第2ベクトルYとして
制御装置から出力される操作量を採用した場合、それら
動作信号及び操作量のデータ対と個別評価とを予め十分
にニューラルネットワークに学習させると、同図(a)
に示すように、安定的に制御量を制御できる動作信号と
操作量とのデータ対が重みベクトル空間のおける多数の
重みベクトルWiの終点として得られることになる。こ
のため、例えば同図(a)に示される重みベクトルWi
の終点を補間する等して、同図(b)に示すような、動
作信号と操作量との関係を表す関数を容易に得ることが
できる。この結果、その関数を制御装置に予め設定する
ことにより、ある動作信号を与えられると適切な操作量
を出力する制御装置を容易に設計することができる。こ
の点は、対象装置の入出力特性を決定する場合にも同様
に当てはまる。
【0052】また、以上のように、第1ベクトルXと第
2ベクトルYの相関関係を、ニューラルネットワークの
学習後に一旦評価してもよいが、そのような評価をせず
とも、第1ベクトルXに対応する好ましい(肯定的評価
が得られるであろう)第2ベクトルYを、重みベクトル
iに基づいて算出することができる。
【0053】図5は、重みベクトルWiから第1ベクト
ルXに対応する好ましい第2ベクトルYを算出する手順
を説明するフロー図である。
【0054】この手順では、図6に示すようにして、ま
ず第1ベクトルXのみをニューラルネットワークの入力
層10に与える。ここでの第1ベクトルXは、学習段階
で用いた学習ベクトルの構成要素たる第1ベクトルXと
区別するため、特に事実入力ベクトルX0と記す(S2
01)。また以下では、この事実入力ベクトルX0に対
応する第2ベクトルYを、学習段階で用いた学習ベクト
ルの構成要素たる第2ベクトルYと区別するため、特に
事実出力ベクトルY0と記す。
【0055】次に、事実入力ベクトルX0に対する競合
層12上の各ニューロンモデルの出力zp(ここでは、
「部分反応度」という。)を、次式(7)に従って算出
する(S202)。同式(7)においてβは所与の定数
である。
【0056】
【数6】 その後、S202で得られた部分反応度zpと結合荷重
prとに基づき、次式(8)に従って事実出力ベクトル
0を算出する(S203)。図7は、この事実出力ベ
クトルY0の算出処理の概念を示すものである。
【0057】
【数7】 同式(8)は結合荷重Uprを部分反応度zpを用いて重
み付け加算すると、事実出力ベクトルY0のr番目の成
分が算出できることを表している。
【0058】たとえば、第1ベクトルX及び第2ベクト
ルYとしていずれも1成分のみを有するものを採用した
場合、図8に示すようにして重みベクトルWが重みベク
トル空間上に表されていれば、ある事実入力ベクトルX
0が与えられると、以上説明した処理では、領域14内
に重みベクトルWiの終点を有するニューロンモデルを
中心として、式(7)で算出される部分反応度zpが大
きな値を有することになる。そして、式(8)を計算す
ると、この領域14内に重みベクトルWiの終点を有す
るニューロンモデルについての結合荷重uの値が支配的
となり、同図の矢印16の辺りに事実出力ベクトルY0
の値が得られることになる。
【0059】以上のようにして、重みベクトルWiから
第1ベクトルXに対応する好ましい第2ベクトルYを算
出することができる。
【0060】実施の形態2.実施の形態2では、上述し
た実施の形態1に係る方法を応用した適応制御装置につ
いて説明する。
【0061】図9は、本実施の形態に係る適応制御装置
の構成を示す図である。同図に示す適応制御装置は、図
1に示したニューラルネットワークをハードウェアとし
て維持・更新するものであり、制御部44と学習部46
との間で第1結合荷重記憶部20及び第2結合荷重記憶
部22が共有されており、双方から随時アクセスするこ
とができるようになっている。この第1結合荷重記憶部
20は図1に示したニューラルネットワークにおける結
合荷重wijを記憶するものであり、第2結合荷重記憶部
は図1に示したニューラルネットワークにおける結合荷
重uikを記憶するものである。
【0062】まず、学習部46は、結合荷重更新部28
と、評価部38と、第1及び第2結合荷重記憶部20,
22と、を含んでいる。評価部38は、制御対象40か
ら得られる制御量を評価して、評価値Eを結合荷重更新
部28に与えるようになっている。評価値Eには、具体
的には制御量の安定性等を表す情報を採用することがで
き、その値は−1〜+1に亘って連続する値をとる。
【0063】結合荷重更新部28には、制御部44から
出力される操作量Yもまたスイッチ34及び遅延素子3
2を介して入力されるようになっている。また、基準入
力とフィードバック量との差分である動作信号Xも、加
算器42により生成され、遅延素子30を介して結合荷
重更新部28に入力されるようになっている。なお、遅
延素子30,32は、動作信号Xと操作量Yと評価値E
とが互いに対応するものとなるように、遅延時間がそれ
ぞれ設定される。また、動作信号Xはn個のデータ要素
を有し、操作量Yはm個のデータ要素を有し、それらは
複数本の信号線により伝送される。
【0064】そして、結合荷重更新部28では、上式
(5)及び(6)に基づいて重みベクトルWiをリアル
タイムに更新し、更新後の結合荷重wij,uikを第1及
び第2結合荷重記憶部20,22にそれぞれ格納する。
【0065】一方、制御部44は、部分反応度算出部2
4と、操作量算出部26と、第1及び第2結合荷重記憶
部20,22と、を含んでいる。部分反応度算出部24
には第1結合荷重記憶部20から結合荷重wpqが入力さ
れるとともに、加算器42から事実動作信号(事実入力
ベクトル)X0が入力されるようになっている。そし
て、部分反応度算出部24では、これらの情報をもと
に、上式(7)に従って部分反応度zpを全ての競合層
12上のニューロンモデルについて算出する。
【0066】また、操作量算出部26には第2結合荷重
記憶部22から結合荷重uprが入力されるとともに、部
分反応度算出部24から部分反応度zpが入力されるよ
うになっている。そして、操作量算出部では、これらの
情報をもとに、上記式(8)に従って事実操作量(事実
出力ベクトル)Y0を算出する。そして、算出された事
実操作量Y0が制御対象40に与えられる。
【0067】以上説明した適応制御装置では、制御対象
40の安定性等の諸評価要素に基づいて第1及び第2結
合荷重記憶部20,22の内容が随時更新される。そし
て、その随時更新される第1及び第2結合荷重記憶部2
0,22の内容に従って、事実動作信号X0に対応す
る、好ましい(肯定的な評価を得られるであろう)事実
操作量Y0が制御部44により算出され、制御対象40
に与えられる。このため、制御対象40の特性が時とと
もに変化した場合であっても、その変化に適応的に追従
し、好適な制御特性を維持することができる。
【0068】なお、以上説明した本発明の実施の形態1
及び2は種々の変形実施が可能である。たとえば、以上
の説明ではニューラルネットワークの結合荷重wij,u
ikの更新、即ち重みベクトルWiの更新を、式(5)及
び式(6)に従って行うようにしたが、その他の更新方
法を採用してもよい。
【0069】また、評価値ElやEとしては、学習ベク
トルに対応してあらゆる情報を採用することができる。
たとえば、学習ベクトル毎の確信度、重要度、刺激程度
などを評価値ElやEとして採用することができる。
【0070】さらに、実施の形態2に係る適応制御装置
では、基準入力としてランダムな値を加算器42に与え
るとともに、スイッチ34を端子36側に切り換えて該
端子36からランダムな値を与え、実際の装置の使用に
先立ち、ニューラルネットワークの学習をある程度済ま
せておくようにしてもよい。
【図面の簡単な説明】
【図1】 本発明の実施の形態1に係る方法で用いるニ
ューラルネットワークの構成を示す図である。
【図2】 図1に示すニューラルネットワークの学習手
順を説明するフロー図である。
【図3】 図1に示すニューラルネットワークの学習の
様子を説明する図である。
【図4】 学習後の重みベクトル空間の様子を示す図で
ある。
【図5】 図1に示すニューラルネットワークを用い、
事実入力ベクトルから事実出力ベクトルを算出する手順
を説明するフロー図である。
【図6】 図1に示すニューラルネットワークを用い
て、事実入力ベクトルに対する競合層の各ニューロンモ
デルの部分反応度が算出される様子を示す図である。
【図7】 競合層の各ニューロンモデルの部分反応度に
基づいて、事実入力ベクトルに対応する事実出力ベクト
ルが算出される様子を示す図である。
【図8】 事実出力ベクトルの計算過程を説明する図で
ある。
【図9】 本発明の実施の形態2に係る適応制御装置の
構成を示す図である。
【符号の説明】
10 入力層、12 競合層、20 第1結合荷重記憶
部、22 第2結合荷重記憶部、24 部分反応度算出
部、26 操作量算出部、28 結合荷重更新部、3
0,32 遅延素子、34 スイッチ、36 端子、3
8 評価部、40制御対象、42 加算器、44 制御
部、46 学習部。

Claims (7)

    【特許請求の範囲】
  1. 【請求項1】 制御装置の製造方法であって、 動作信号を構成する個々のデータ要素に対応する動作信
    号用ニューロンモデルと、操作量を構成する個々のデー
    タ要素に対応する操作量用ニューロンモデルと、をニュ
    ーラルネットワークの第1層に配置し、 前記動作信号用及び操作量用ニューロンモデルと結合す
    るニューロンモデル群を前記ニューラルネットワークの
    第2層に配置し、 前記第1層に配置されるニューロンモデルに、学習用の
    動作信号及び操作量の対を順次入力し、該動作信号及び
    操作量の対とそれに対する個別評価情報とに基づいて、
    前記動作信号用及び操作量用ニューロンモデルと前記第
    2層に配置されるニューロンモデル群との間の結合荷重
    を更新し、 更新後の前記結合荷重に基づいて前記制御装置の入出力
    特性を決定し、前記制御装置を製造することを特徴とす
    る方法。
  2. 【請求項2】 ニューラルネットワークを用いた制御装
    置であって、 前記ニューラルネットワークの第1層に配置され、動作
    信号を構成する個々のデータ要素が入力される動作信号
    用ニューロンモデルと、操作量を構成する個々のデータ
    要素が入力される操作量用ニューロンモデルと、を含む
    第1層ニューロンモデル群と、 前記ニューラルネットワークの第2層に配置され、前記
    動作信号用及び操作量用ニューロンモデルと結合する第
    2層ニューロンモデル群と、 前記第1層ニューロンモデル群に入力される動作信号及
    び操作量と、該動作信号及び操作量に対する個別評価情
    報と、に基づいて、前記第1層ニューロンモデル群と前
    記第2層ニューロンモデル群との間の結合荷重を更新す
    る学習手段と、 動作信号と前記結合荷重とに基づき、該動作信号に対応
    して出力すべき操作量を算出する操作量算出手段と、 を含むことを特徴とする制御装置。
  3. 【請求項3】 請求項2に記載の制御装置において、 前記操作量算出手段は、 前記第2層ニューロンモデル群に含まれるニューロンモ
    デルと前記動作信号用ニューロンモデルとの間の結合荷
    重と、動作信号と、に基づき、前記第2層ニューロンモ
    デル群に含まれる各ニューロンモデルの該動作信号に対
    する部分反応度を算出する手段と、 前記第2層ニューロンモデル群に含まれるニューロンモ
    デルと前記制御量用ニューロンモデルとの間の結合荷重
    と、前記部分反応度と、に基づき、操作量を算出する手
    段と、 を含むことを特徴とする制御装置。
  4. 【請求項4】 請求項2又は3に記載の制御装置におい
    て、 前記個別評価情報は制御量に基づいて生成されることを
    特徴とする制御装置。
  5. 【請求項5】 第1データに基づいて第2データを生成
    するデータ生成装置であって、 ニューラルネットワークの第1層に配置され、前記第1
    データの個々のデータ要素に対応する第1ニューロンモ
    デルと、前記第2データの個々のデータ要素に対応する
    第2ニューロンモデルと、を含む第1層ニューロンモデ
    ル群と、 前記ニューラルネットワークの第2層に配置され、前記
    第1及び第2ニューロンモデルと結合する第2層ニュー
    ロンモデル群と、 前記第1層ニューロンモデル群と前記第2層ニューロン
    モデル群との間の結合荷重と、第1データとに基づき、
    第2データを算出するデータ算出手段と、を含み、 学習段階では、前記第1層ニューロンモデル群に学習用
    の第1及び第2データの対が順次入力され、該学習用の
    第1及び第2データの対とそれに対する個別評価情報と
    に基づいて、前記第1層ニューロンモデル群と前記第2
    層ニューロンモデル群との間の結合荷重が更新されるこ
    とを特徴とするデータ生成装置。
  6. 【請求項6】 対象装置の入力データ及び出力データの
    関係を決定する入出力特性決定方法であって、 前記入力データの個々のデータ要素に対応する入力デー
    タ用ニューロンモデルと、前記出力データの個々のデー
    タ要素に対応する出力データ用ニューロンモデルと、を
    ニューラルネットワークの第1層に配置し、 前記入力データ用及び出力データ用ニューロンモデルと
    結合するニューロンモデル群を前記ニューラルネットワ
    ークの第2層に配置し、 学習段階では、前記第1層に配置されるニューロンモデ
    ルに学習用の入力及び出力データの対を順次入力し、該
    データの対とそれに対する個別評価情報とに基づいて、
    前記入力データ用及び出力データ用ニューロンモデルと
    前記第2層に配置されるニューロンモデル群との間の結
    合荷重を更新し、 入出力特性決定段階では、前記結合荷重に基づいて前記
    対象装置の入出力特性を決定することを特徴とする入出
    力特性決定方法。
  7. 【請求項7】 第1データと第2データとの間の相関関
    係を評価する相関関係評価方法であって、 前記第1データの個々のデータ要素に対応する第1デー
    タ用ニューロンモデルと、前記第2データの個々のデー
    タ要素に対応する第2データ用ニューロンモデルと、を
    ニューラルネットワークの第1層に配置し、 前記第1データ用及び第2データ用ニューロンモデルと
    結合するニューロンモデル群を前記ニューラルネットワ
    ークの第2層に配置し、 学習段階では、前記第1層に配置されるニューロンモデ
    ルに学習用の第1及び第2データの対を順次入力し、該
    データの対とそれに対する個別評価情報とに基づいて、
    前記第1データ用及び第2データ用ニューロンモデルと
    前記第2層に配置されるニューロンモデル群との間の結
    合荷重を更新し、 評価段階では、前記結合荷重に基づいて第1データと第
    2データとの間の相関関係を評価することを特徴とする
    相関関係評価方法。
JP29369098A 1998-10-15 1998-10-15 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置 Expired - Fee Related JP4267726B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29369098A JP4267726B2 (ja) 1998-10-15 1998-10-15 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29369098A JP4267726B2 (ja) 1998-10-15 1998-10-15 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置

Publications (3)

Publication Number Publication Date
JP2000122991A true JP2000122991A (ja) 2000-04-28
JP2000122991A5 JP2000122991A5 (ja) 2005-12-08
JP4267726B2 JP4267726B2 (ja) 2009-05-27

Family

ID=17797982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29369098A Expired - Fee Related JP4267726B2 (ja) 1998-10-15 1998-10-15 制御装置における動作信号と操作量との関係を決定する装置、制御装置、データ生成装置、入出力特性決定装置及び相関関係評価装置

Country Status (1)

Country Link
JP (1) JP4267726B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027176A (ja) * 2006-07-20 2008-02-07 Kyushu Institute Of Technology データ生成回路及びデータ生成方法
JP2008065477A (ja) * 2006-09-05 2008-03-21 Kyushu Institute Of Technology データ処理装置及び方法
JP2008117090A (ja) * 2006-11-01 2008-05-22 Kyushu Institute Of Technology データ処理装置、データ処理方法及びプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008027176A (ja) * 2006-07-20 2008-02-07 Kyushu Institute Of Technology データ生成回路及びデータ生成方法
JP2008065477A (ja) * 2006-09-05 2008-03-21 Kyushu Institute Of Technology データ処理装置及び方法
JP2008117090A (ja) * 2006-11-01 2008-05-22 Kyushu Institute Of Technology データ処理装置、データ処理方法及びプログラム

Also Published As

Publication number Publication date
JP4267726B2 (ja) 2009-05-27

Similar Documents

Publication Publication Date Title
CN111523047B (zh) 基于图神经网络的多关系协同过滤算法
Kuo et al. Integration of particle swarm optimization and genetic algorithm for dynamic clustering
Chiang et al. A self-learning fuzzy logic controller using genetic algorithms with reinforcements
CN110782015A (zh) 神经网络的网络结构优化器的训练方法、装置及存储介质
Almeida et al. A multi-objective memetic and hybrid methodology for optimizing the parameters and performance of artificial neural networks
CN110046710A (zh) 一种神经网络的非线性函数极值优化方法及系统
US9934470B2 (en) Production equipment including machine learning system and assembly and test unit
CN112329948A (zh) 一种多智能体策略预测方法及装置
CN114692310B (zh) 一种基于Dueling DQN的虚实融合一二级分离模型参数优化方法
CN115186097A (zh) 一种基于知识图谱和强化学习的交互式推荐方法
JP7381814B2 (ja) マルチタスク向けの予めトレーニング言語モデルの自動圧縮方法及びプラットフォーム
Li Neural network models for intelligent support of mark‐up estimation
CN110414718A (zh) 一种深度学习下的配电网可靠性指标优化方法
CN112990485A (zh) 基于强化学习的知识策略选择方法与装置
CN112685657A (zh) 一种基于多模态交叉融合图网络的会话社交推荐方法
CN115329683A (zh) 航空行李在线装载规划方法、装置、设备及介质
CN116933948A (zh) 基于改进海鸥算法与反向传播神经网络的预测方法和系统
CN108229640B (zh) 情绪表达的方法、装置和机器人
CN113641907A (zh) 一种基于进化算法的超参数自适应深度推荐方法及装置
JP2000122991A (ja) 制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法
EP0583217B1 (en) Optimisation of feedforward neural networks
CN110489435A (zh) 基于人工智能的数据处理方法、装置、及电子设备
CN113887570B (zh) 一种基于神经网络的太阳耀斑二分类预测方法
JP2002288625A (ja) 多目的最適化方法、プログラムおよびプラン立案装置
JP2023027983A (ja) 学習装置、方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051014

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees