JP4267726B2 - Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device - Google Patents

Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device Download PDF

Info

Publication number
JP4267726B2
JP4267726B2 JP29369098A JP29369098A JP4267726B2 JP 4267726 B2 JP4267726 B2 JP 4267726B2 JP 29369098 A JP29369098 A JP 29369098A JP 29369098 A JP29369098 A JP 29369098A JP 4267726 B2 JP4267726 B2 JP 4267726B2
Authority
JP
Japan
Prior art keywords
neuron model
data
layer
model group
learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29369098A
Other languages
Japanese (ja)
Other versions
JP2000122991A (en
JP2000122991A5 (en
Inventor
烈 山川
恵一 堀尾
Original Assignee
烈 山川
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 烈 山川 filed Critical 烈 山川
Priority to JP29369098A priority Critical patent/JP4267726B2/en
Publication of JP2000122991A publication Critical patent/JP2000122991A/en
Publication of JP2000122991A5 publication Critical patent/JP2000122991A5/ja
Application granted granted Critical
Publication of JP4267726B2 publication Critical patent/JP4267726B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法に関し、特に、ニューラルネットワークを用いた、制御装置の製造方法、制御装置、データ生成装置、入出力特性決定方法及び相関関係評価方法に関する。
【0002】
【従来の技術及び発明が解決しようとする課題】
高性能な制御装置を設計するにあたっては、制御対象の特性や、その制御対象が置かれる環境について正確な情報が予め入手されていなければならない。しかしながら、現実にはそれらの情報を正しく入手するのは困難な場合が多い。
【0003】
このため、多数の動作信号及び操作量の対を実際に制御対象に対して与え、どのような制御結果が得られるかをしらみ潰しに調べていくことにより、制御装置の特性を決定するのが実際的である。
【0004】
この際、多数の動作信号及び操作量の対と、その対に対する個別評価に基づいて、動作信号及び操作量の関係を評価する手法が提案されれば、その評価結果に基づいて好ましい動作信号と操作量との関係を決定し、制御装置を容易に設計・製造することができる。
【0005】
また、以上のような制御装置の特性に限らず、一般的に、二つのデータ(ベクトルデータを含む)の相関関係を、個々のデータ対に対する個別評価に基づいて評価する方法が提案されれば、有意義である。
【0006】
この点、ニューラルネットワーク技術は、個々のデータとその個別評価を処理するのに最も優れた技術といえるが、既存のニューラルネットワークのモデルでは、単に入力データを分類分けするのみであったり、単に写像の入出力関係を実現するものであり、二つのデータの相関関係を評価することのできるニューラルネットワークのモデルは未だ提案されていない。
【0007】
本発明は上記課題に鑑みてなされたものであって、第1の目的は、制御装置の特性を、複数の動作信号及び操作量の対に対する個別評価に基づいて容易に決定することのできる制御装置の製造方法を提供することにある。
【0008】
また、第2の目的は、制御装置の好ましい特性をニューラルネットワークに学習させ、その学習内容に従って、制御対象を制御することのできる制御装置を提供することにある。
【0009】
また、第3の目的は、二つのデータの相関関係とその評価とをニューラルネットワークに学習させておき、その学習内容に従って、あるデータに対応するデータを生成することのできるデータ生成装置を提供することにある。
【0010】
また、第4の目的は、対象装置の入出力特性を、複数の入出力データの対に対する個別評価に基づいて容易に決定することのできる入出力特性決定方法を提供することにある。
【0011】
さらに、第5の目的は、個々のデータ対に対する個別評価に基づいて、二つのデータの相関関係を評価することのできる相関関係評価方法を提供することにある。
【0012】
【課題を解決するための手段】
(1)上記課題を解決するために、本発明に係る制御装置における動作信号と操作量との関係を決定する装置は、ニューラルネットワークの第1層に配置され、動作信号を構成する個々のデータ要素に対応する動作信号用ニューロンモデルと、操作量を構成する個々のデータ要素に対応する操作量用ニューロンモデルと、を含む第1層ニューロンモデル群と前記ニューラルネットワークの第2層に配置され、前記動作信号用及び操作量用ニューロンモデルと結合する第2層ニューロンモデル群と、前記第1層ニューロンモデルに、学習用の動作信号及び操作量の対を順次入力し、該動作信号及び操作量の対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記動作信号用及び操作量用ニューロンモデルと前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記学習用の動作信号及び操作量を構成する個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と、更新後の前記結合荷重に基づいて前記制御装置の入出力特性を決定する決定手段であって、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記動作信号用ニューロンモデルとの間の結合荷重を前記制御装置の入力とし、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記操作信号用ニューロンモデルとの間の結合荷重を前記制御装置の出力とした場合の当該入力と当該出力との間の関係を表す関数を得る演算を行い、この演算の結果の関数を前記制御装置の入出力特性とする、決定手段と、を備えることを特徴とする。
【0013】
本発明では学習用の動作信号及び操作量の対が第1層のニューロンモデルに順次入力され、当該学習用の動作信号及び操作量の対と、例えば制御量の安定度等の前記個別評価情報と、に基づき、前記結合荷重が更新される。こうすれば、入出力関係が類似する動作信号及び操作量の対に対しては、第2層において近傍に位置するニューロンモデルが反応するよう、前記結合荷重が順次更新されるため、学習後の結合荷重に基づいて、ある個別評価に対応する動作信号及び操作量の対を得ることができる。この結果、例えば制御量が安定する動作信号及び操作量の対を前記結合荷重から得ることができ、制御装置の特性を容易に決定することができる。
【0014】
(2)また、本発明に係る制御装置は、ニューラルネットワークを用いた制御装置であって、前記ニューラルネットワークの第1層に配置され、動作信号を構成する個々のデータ要素が入力される動作信号用ニューロンモデルと、操作量を構成する個々のデータ要素が入力される操作量用ニューロンモデルと、を含む第1層ニューロンモデル群と、前記ニューラルネットワークの第2層に配置され、前記動作信号用及び操作量用ニューロンモデルと結合する第2層ニューロンモデル群と、前記第1層ニューロンモデル群に入力される動作信号及び操作量と、該動作信号及び操作量に対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報と、に基づいて、前記第1層ニューロンモデル群と前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記動作信号及び操作量を構成する個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と、前記動作信号用ニューロンモデルに動作信号を入力し、該動作信号と前記結合荷重とを予め設定された式に代入して演算を行った結果の値と、前記第2層ニューロンモデル群に含まれるニューロンモデルと前記操作用ニューロンモデルとの間の前記結合荷重と、の積に基づく値を該動作信号に対応して出力すべき操作量として算出する操作量算出手段と、を含むことを特徴とする。
【0015】
上述のように前記結合荷重には個別評価が肯定的な動作信号及び操作量の対についての情報が記憶される。このため、本発明では、ある動作信号が与えられると、その動作信号に対応する操作量を、該動作信号及び結合荷重に基づいて算出することができる。たとえば、前記操作量算出手段は、ある動作信号が与えられると、対応する操作量であって制御量の安定度の高いものを、動作信号及び結合荷重に基づいて算出することができる。このため、本発明に係る制御装置によれば、制御装置の好ましい特性をニューラルネットワークに学習させ、その学習内容に従って、制御対象を制御することができる。また、制御対象の制御と並行して前記学習手段による学習を行わせれば、該制御対象を適応的に制御することができる。
【0016】
また、本発明の一態様では、前記操作量算出手段における前記予め設定された式は、前記第2層ニューロンモデル群に含まれる1つのニューロンモデルと前記動作信号用ニューロンモデルとの間の結合荷重を各要素とするベクトルと、動作信号を構成する個々のデータ要素を各要素とするベクトルと、の間の距離が小さいほど大きな値をとる式であり、前記操作量算出手段は、前記第2層ニューロンモデル群に含まれる各ニューロンモデルについて、当該ニューロンモデルと前記動作信号用ニューロンモデルとの間の結合荷重と、前記動作信号用ニューロンモデルに入力された前記動作信号と、を前記予め設定された式に代入して演算を行った結果の値を、前記第2層ニューロンモデル群に含まれる各ニューロンモデルの該動作信号に対する部分反応度として算出する手段と、前記第2層ニューロンモデル群に含まれるニューロンモデルと前記操作量用ニューロンモデルとの間の結合荷重と、前記2層ニューロンモデル群に含まれるニューロンモデルの前記部分反応度と、の積に基づく値を前記操作量として算出する手段と、を含むことを特徴とする。
【0017】
この態様では動作信号の入力に対する前記第2層ニューロンモデル群の各部分反応度が、まず算出される。そして、その部分反応度と、前記制御用ニューロンモデルと第2層ニューロンモデル群との間の結合荷重と、に基づいて、動作信号に対応する操作量を算出する。例えば前記制御用ニューロンモデルと第2層ニューロンモデル群との間の結合荷重を、前記部分反応度により重み付け加算して、操作量を算出すればよい。こうすれば、ニューラルネットワークの学習内容に基づき、動作信号に対応する操作量を算出することができる。
【0018】
(3)また、本発明に係るデータ生成装置は、第1データに基づいて第2データを生成するデータ生成装置であって、ニューラルネットワークの第1層に配置され、前記第1データの個々のデータ要素に対応する第1ニューロンモデルと、前記第2データの個々のデータ要素に対応する第2ニューロンモデルと、を含む第1層ニューロンモデル群と、前記ニューラルネットワークの第2層に配置され、前記第1及び第2ニューロンモデルと結合する第2層ニューロンモデル群と、前記第1ニューロンモデルに第1データを入力し、前記第1層ニューロンモデル群と前記第2層ニューロンモデル群との間の結合荷重と当該第1データとを予め設定された式に代入して演算を行った結果の値と、前記第2層ニューロンモデル群と前記第2ニューロンモデルとの間の結合荷重と、の積に基づく値を第2データとして算出するデータ算出手段と、を含み、学習段階では、前記第1層ニューロンモデル群に学習用の第1及び第2データの対が順次入力され、該学習用の第1及び第2データの対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記第1層ニューロンモデル群と前記第2層ニューロンモデル群との間の結合荷重が更新され、この更新処理において、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記学習用の第1及び第2データの個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、ことを特徴とする。
【0019】
本発明によれば、第1データと第2データの相関関係とその評価をニューラルネットワークに学習させておき、その学習内容に従って、ある与えられた第1データに対応する第2データを生成することができる。
【0020】
(4)また、本発明に係る入出力特性決定装置は、対象装置の入力データ及び出力データの関係を決定する入出力特性決定装置であって、ニューラルネットワークの第1層に配置され、前記入力データの個々のデータ要素に対応する入力データ用ニューロンモデルと、前記出力データの個々のデータ要素に対応する出力データ用ニューロンモデルと、を含む第1層ニューロンモデル群と前記ニューラルネットワークの第2層に配置され、前記入力データ用及び出力データ用ニューロンモデルと結合する第2層ニューロンモデル群と、前記第1層ニューロンモデルに学習用の入力及び出力データの対を順次入力し、該データの対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記入力データ用及び出力データ用ニューロンモデルと前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記入力データ及び出力データの個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と、前記結合荷重に基づいて前記対象装置の入出力特性を決定する決定手段であって、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記入力データ用ニューロンモデルとの間の結合荷重を前記対象装置の入力とし、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記出力データ用ニューロンモデルとの間の結合荷重を前記対象装置の出力とした場合の当該入力と当該出力との間の関係を表す関数を得る演算を行い、この演算の結果の関数を前記対象装置の入出力特性とする、決定手段と、を備えることを特徴とする。
【0021】
こうすれば、対象装置の入出力データとその個別評価をニューラルネットワークに学習させておき、対象装置の入出力特性を学習結果に基づいて決定することができる。
【0022】
(5)また、本発明に係る相関関係評価装置は、第1データと第2データとの間の相関関係を評価する相関関係評価装置であって、ニューラルネットワークの第1層に配置され、前記第1データの個々のデータ要素に対応する第1データ用ニューロンモデルと、前記第2データの個々のデータ要素に対応する第2データ用ニューロンモデルと、を含む第1層ニューロンモデル群と前記ニューラルネットワークの第2層に配置され、前記第1データ用及び第2データ用ニューロンモデルと結合する第2層ニューロンモデル群と、前記第1層ニューロンモデルに学習用の第1及び第2データの対を順次入力し、該データの対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記第1データ用及び第2データ用ニューロンモデルと前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記学習用の第1及び第2データの個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と、前記結合荷重に基づいて第1データと第2データとの間の相関関係を評価する評価手段であって、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記第1データ用ニューロンモデルとの間の結合荷重を第1データとし、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記第2データ用ニューロンモデルとの間の結合荷重を第2データとした場合の当該第1データと当該第2データとの間の関係を表す関数を得る演算を行い、この演算の結果の関数を前記第1データと第2データとの間の相関関係を表す関数とする、評価手段と、を備えることを特徴とする。
【0023】
こうすれば、個々のデータ対に対する個別評価に基づいて、二つのデータの相関関係を評価することができる。
【0024】
【発明の実施の形態】
以下、本発明の好適な実施の形態について図面に基づいて詳細に説明する。
【0025】
実施の形態1.
実施の形態1では、ニューラルネットワークを用いて、二つのデータの相関関係を評価する方法、及び対象装置の入出力特性を決定する方法、とりわけ制御装置における動作信号と操作量との関係を決定する方法について説明する。
【0026】
なお、以下の説明では各種変数を表すアルファベット文字を使用するが、大文字アルファベットがベクトル量を表し、小文字アルファベットがスカラー量を表すものとする。
【0027】
図1は、本実施の形態に係る方法を説明する図であり、本方法で用いるニューラルネットワークの構成が示されている。同図に示すニューラルネットワークでは、入力層10に配置されるニューロンモデル(以下では「ユニット」ともいう。)に学習ベクトルIが入力されており、それら入力層10のニューロンモデルは競合層12に配置されるニューロンモデルとシナプス結合している。
【0028】
入力層10に配置されるニューロンモデルは大きく2つに分類される。第1分類に属するのは第1ベクトルXが入力されるニューロンモデルであり、第2分類に属するのは第2ベクトルYが入力されるニューロンモデルである。すなわち、学習ベクトルIは次式(1)に示すように第1ベクトルXと第2ベクトルYとから構成される。
【0029】
【数1】

Figure 0004267726
そして、第1分類に属するニューロンモデルは、第1ベクトルXの成分数(データ要素数)に等しい個数存在し、第2分類に属するニューロンモデルは、第2ベクトルYの成分数に等しい個数存在する。ここでは、第1ベクトルXがn個の成分を有するものとし、第2ベクトルYがm個の成分を有するものとする。このため、入力層10には合計(n+m)個のニューロンモデルが配置されている。
【0030】
たとえば、二つのデータの相関関係を評価したい場合には、一方のデータを第1ベクトルに対応させ、他方のデータを第2ベクトルに対応させればよい。また、対象装置の入出力特性を決定する場合には、当該対象装置の入力信号を第1ベクトルに対応させ、出力信号を第2ベクトルに対応させればよい。さらに、制御装置における動作信号と操作量との関係を決定する場合には、動作信号を第1ベクトルに対応させ、操作量を第2ベクトルに対応させればよい。
【0031】
また、第1分類に属するj番目のニューロンモデルは、競合層12に配置されたi番目のニューロンモデルと、結合荷重wijにてシナプス結合しているものとする。また、第2分類に属するk番目のニューロンモデルは、競合層12に配置されたi番目のニューロンモデルと、結合荷重uikにてシナプス結合しているものとする。そして、結合荷重wijと結合荷重uikとにより、競合層12のi番目のニューロンモデルに関する重みベクトルWiが、次式(2)に示すようにして構成される。
【0032】
【数2】
Figure 0004267726
図2は、以上説明したニューラルネットワークに学習をさせる際の手順を説明するフロー図である。
【0033】
同フロー図に示すように、上記ニューラルネットワークに学習をさせるには、まずs個の学習ベクトルIl(l=1〜s)を準備する(S101)。この学習ベクトルは、第1ベクトルXと第2ベクトルYの対であり、ランダムなベクトルの対であって、それら対の各々対しては個別評価情報も準備されていなければならない。たとえば、本方法により制御装置の特性を決定しようとする場合には、動作信号と操作量の対を学習ベクトルIlに選び、その対が制御装置の入出力とされた場合に制御量がどの様な振る舞いをするかを表す情報等を個別評価情報とすればよい。
【0034】
次に、学習繰り返し回数Iteを0に設定するとともに(S102)、学習ベクトルIlの添え字である変数lを0に設定する(S103)。そして、S101で準備した学習ベクトルIlの各成分を、図1に示したニューラルネットワークの入力層10に配置されたニューロンモデルに入力する(S104)。
【0035】
入力層10に学習ベクトルIが与えられると、勝者ユニット(勝ちニューロン)、即ち学習ベクトルIに対して最も反応する競合層12のニューロンモデルが決定される(S105)。具体的には、次式(3)により、競合層12のi番目のニューロンモデルと入力層10のニューロンモデルとの間のユークリッド距離 を求め、それが最も短いものを勝者ユニットとする。
【0036】
【数3】
Figure 0004267726
なお、勝者ユニットを決定する場合、次式(4)に示すファジイ類似性尺度Siを競合層12の各ニューロンモデルについて算出し、それが最も小さな値をとるニューロンモデルを勝者ユニットとしてもよい。同式(4)において、x∧wは、xとwのいずれか小さな値を意味する。またx∨wは、xとwのいずれか大きな値を意味する。
【0037】
【数4】
Figure 0004267726
次に、本方法では、勝者ユニットの近傍に位置するニューロンモデル、即ち近傍ユニットを決定する(S106)。たとえば、競合層12のi番目のニューロンモデルを勝者ユニットとした場合、競合層12のニューロンモデルが図1に示すように直線状に配置されていると仮定すれば、競合層(i−2)番目から(i+2)番目のニューロンモデル等、前後するニューロンモデルを近傍ユニットに選べばよい。
【0038】
その後、本方法では、勝者ユニットと近傍ユニットについて、重みベクトルWiを次式(5)及び(6)により更新する(S107)。
【0039】
【数5】
Figure 0004267726
まず、上式(5)は学習ベクトルIlに対する評価が肯定的である場合に用いられる更新式である。同式(5)においてWi oldは更新前の重みベクトルWiであり、Wi newは更新後の重みベクトルWiである。また、α(t)は学習係数であり、時間とともに減少するtの関数が採用されている。さらに、Elは正の実数値をとる評価値であり、学習ベクトルIlに与えられる肯定的な個別評価情報を表す。
【0040】
この式(5)による重みベクトルWiの更新により、学習ベクトルIlに対する評価が肯定的であれば、勝者ユニット及びその近傍ユニットの重みベクトルWiは、学習係数α(t)及び評価値Elに比例して、学習ベクトルIlに近づくことになる。
【0041】
これに対して上式(6)は学習ベクトルIlに対する評価が否定的である場合に用いられる更新式である。同式(6)において、signは符号関数である。また、Elは負の実数値をとる評価値であり、学習ベクトルIlに与えられる否定的な個別評価情報を表す。
【0042】
この式(6)による重みベクトルWiの更新により、学習ベクトルIlに対する評価が否定的であれば、勝者ユニット及びその近傍ユニットの重みベクトルWiは学習ベクトルIlから遠ざかることになる。その際、重みベクトルWiが学習ベクトルIlから遠ざかる距離は学習係数α(t)及び評価値Elに比例する。また、同式(6)の右辺の指数関数の働きにより、より近い重みベクトルWjがより大きく学習ベクトルIlから遠ざけられることになる。
【0043】
その後、変数lが最大値s未満であれば(S108)、lをインクリメントし(S110)、次の学習ベクトルIlをニューラルネットワークの入力層10に与える(S104)。一方、変数lが最大値sに達すれば(S108)、繰り返し回数Iteが設定値ITEに達しているかを判断し(S109)、達していなければ繰り返し回数Iteをインクリメントするとともに(S111)、変数lを0に戻し(S103)、再び学習ベクトルI0をニューラルネットワークの入力層10に与える(S104)。
【0044】
以上のように、本方法ではニューラルネットワークの学習ベクトルとして、対象装置の入出力データ等の二つのデータの対を用いている。こうしてニューラルネットワークに学習をさせると、以下に説明するように、ニューラルネットワークの結合荷重から、ある評価を与えられるデータ対の相関関係が得られるようになる。
【0045】
図3及び図4は、第1ベクトルX及び第2ベクトルYとしていずれも1成分のみを有するものを採用した場合の、ニューラルネットワークの学習の様子を模式的に示す図である。この場合、学習ベクトルIは2成分を有し、重みベクトルWiは第1ベクトルX及び第2ベクトルYに対応して2成分を有することになる。
【0046】
図3には、上から学習ベクトル空間(平面)、重みベクトル空間(平面)、競合層12が順に描かれている。学習ベクトル空間は第1ベクトルX及び第2ベクトルYに対応する座標軸を有しており、学習ベクトルIが与えられると、それを平面上の一点に対応づけることができるようになっている。一方、重みベクトル空間は重みベクトルWの2成分に対応する軸を有しており、重みベクトルWの終点が平面上の一点にそれぞれ描かれるようになっている。
【0047】
同図に示すように、ある学習ベクトルIが与えられると、競合層12に配置されるニューロンモデルから勝者ユニットが決定される。この勝者ユニットは、学習ベクトルIを重みベクトル空間上の一点に表した場合に、その点に最も近い点に終点を有する重みベクトルWである。続いて、その勝者ユニットに対する近傍ユニットも選ばれる。同図では競合層12にニューロンモデルを平面的に配置しているため、勝者ユニットの周囲を取り巻くユニットが近傍ユニットに選ばれる。
【0048】
そして、与えられた学習ベクトルIに対する個別評価が肯定的であって評価値Eが正の値をとる場合、それら勝者ユニット及び近傍ユニットの重みベクトルWiが上式(5)に従って更新される。この場合、近傍ユニットの重みベクトルWiは必ずしも勝者ユニットの重みベクトルWiに類似するものとはなっていない。しかしながら、学習が進むに従って勝者ユニットの重みベクトルWiと近傍ユニットの重みベクトルWiとは次第に類似するようになる。
【0049】
なお、同図では特に示さないが、入力される学習ベクトルIに対する評価が否定的である場合、即ち評価値Eが負の値をとる場合、上式(6)に従って、勝者ユニット及び近傍ユニットの重みベクトルWiは当該学習ベクトルIから遠ざかるように更新される。
【0050】
図4(a)は、学習が進んだ後の重みベクトル空間の様子を示す図である。同図に示すように、学習が相当程度に進むと重みベクトルWiの終点を表す各点は肯定的な評価を与えられた学習ベクトルIの近傍に集結する。従って、この重みベクトルWiの分布を調べることにより、学習ベクトルIに含まれる第1ベクトルXと第2ベクトルYとの関係を評価することができる。
【0051】
たとえば、第1ベクトルXとして制御装置に入力される動作信号を採用し、第2ベクトルYとして制御装置から出力される操作量を採用した場合、それら動作信号及び操作量のデータ対と個別評価とを予め十分にニューラルネットワークに学習させると、同図(a)に示すように、安定的に制御量を制御できる動作信号と操作量とのデータ対が重みベクトル空間のおける多数の重みベクトルWiの終点として得られることになる。このため、例えば同図(a)に示される重みベクトルWiの終点を補間する等して、同図(b)に示すような、動作信号と操作量との関係を表す関数を容易に得ることができる。この結果、その関数を制御装置に予め設定することにより、ある動作信号を与えられると適切な操作量を出力する制御装置を容易に設計することができる。この点は、対象装置の入出力特性を決定する場合にも同様に当てはまる。
【0052】
また、以上のように、第1ベクトルXと第2ベクトルYの相関関係を、ニューラルネットワークの学習後に一旦評価してもよいが、そのような評価をせずとも、第1ベクトルXに対応する好ましい(肯定的評価が得られるであろう)第2ベクトルYを、重みベクトルWiに基づいて算出することができる。
【0053】
図5は、重みベクトルWiから第1ベクトルXに対応する好ましい第2ベクトルYを算出する手順を説明するフロー図である。
【0054】
この手順では、図6に示すようにして、まず第1ベクトルXのみをニューラルネットワークの入力層10に与える。ここでの第1ベクトルXは、学習段階で用いた学習ベクトルの構成要素たる第1ベクトルXと区別するため、特に事実入力ベクトルX0と記す(S201)。また以下では、この事実入力ベクトルX0に対応する第2ベクトルYを、学習段階で用いた学習ベクトルの構成要素たる第2ベクトルYと区別するため、特に事実出力ベクトルY0と記す。
【0055】
次に、事実入力ベクトルX0に対する競合層12上の各ニューロンモデルの出力zp(ここでは、「部分反応度」という。)を、次式(7)に従って算出する(S202)。同式(7)においてβは所与の定数である。
【0056】
【数6】
Figure 0004267726
その後、S202で得られた部分反応度zpと結合荷重Uprとに基づき、次式(8)に従って事実出力ベクトルY0を算出する(S203)。図7は、この事実出力ベクトルY0の算出処理の概念を示すものである。
【0057】
【数7】
Figure 0004267726
同式(8)は結合荷重Uprを部分反応度zpを用いて重み付け加算すると、事実出力ベクトルY0のr番目の成分が算出できることを表している。
【0058】
たとえば、第1ベクトルX及び第2ベクトルYとしていずれも1成分のみを有するものを採用した場合、図8に示すようにして重みベクトルWが重みベクトル空間上に表されていれば、ある事実入力ベクトルX0が与えられると、以上説明した処理では、領域14内に重みベクトルWiの終点を有するニューロンモデルを中心として、式(7)で算出される部分反応度zpが大きな値を有することになる。そして、式(8)を計算すると、この領域14内に重みベクトルWiの終点を有するニューロンモデルについての結合荷重uの値が支配的となり、同図の矢印16の辺りに事実出力ベクトルY0の値が得られることになる。
【0059】
以上のようにして、重みベクトルWiから第1ベクトルXに対応する好ましい第2ベクトルYを算出することができる。
【0060】
実施の形態2.
実施の形態2では、上述した実施の形態1に係る方法を応用した適応制御装置について説明する。
【0061】
図9は、本実施の形態に係る適応制御装置の構成を示す図である。同図に示す適応制御装置は、図1に示したニューラルネットワークをハードウェアとして維持・更新するものであり、制御部44と学習部46との間で第1結合荷重記憶部20及び第2結合荷重記憶部22が共有されており、双方から随時アクセスすることができるようになっている。この第1結合荷重記憶部20は図1に示したニューラルネットワークにおける結合荷重wijを記憶するものであり、第2結合荷重記憶部は図1に示したニューラルネットワークにおける結合荷重uikを記憶するものである。
【0062】
まず、学習部46は、結合荷重更新部28と、評価部38と、第1及び第2結合荷重記憶部20,22と、を含んでいる。評価部38は、制御対象40から得られる制御量を評価して、評価値Eを結合荷重更新部28に与えるようになっている。評価値Eには、具体的には制御量の安定性等を表す情報を採用することができ、その値は−1〜+1に亘って連続する値をとる。
【0063】
結合荷重更新部28には、制御部44から出力される操作量Yもまたスイッチ34及び遅延素子32を介して入力されるようになっている。また、基準入力とフィードバック量との差分である動作信号Xも、加算器42により生成され、遅延素子30を介して結合荷重更新部28に入力されるようになっている。なお、遅延素子30,32は、動作信号Xと操作量Yと評価値Eとが互いに対応するものとなるように、遅延時間がそれぞれ設定される。また、動作信号Xはn個のデータ要素を有し、操作量Yはm個のデータ要素を有し、それらは複数本の信号線により伝送される。
【0064】
そして、結合荷重更新部28では、上式(5)及び(6)に基づいて重みベクトルWiをリアルタイムに更新し、更新後の結合荷重wij,uikを第1及び第2結合荷重記憶部20,22にそれぞれ格納する。
【0065】
一方、制御部44は、部分反応度算出部24と、操作量算出部26と、第1及び第2結合荷重記憶部20,22と、を含んでいる。部分反応度算出部24には第1結合荷重記憶部20から結合荷重wpqが入力されるとともに、加算器42から事実動作信号(事実入力ベクトル)X0が入力されるようになっている。そして、部分反応度算出部24では、これらの情報をもとに、上式(7)に従って部分反応度zpを全ての競合層12上のニューロンモデルについて算出する。
【0066】
また、操作量算出部26には第2結合荷重記憶部22から結合荷重uprが入力されるとともに、部分反応度算出部24から部分反応度zpが入力されるようになっている。そして、操作量算出部では、これらの情報をもとに、上記式(8)に従って事実操作量(事実出力ベクトル)Y0を算出する。そして、算出された事実操作量Y0が制御対象40に与えられる。
【0067】
以上説明した適応制御装置では、制御対象40の安定性等の諸評価要素に基づいて第1及び第2結合荷重記憶部20,22の内容が随時更新される。そして、その随時更新される第1及び第2結合荷重記憶部20,22の内容に従って、事実動作信号X0に対応する、好ましい(肯定的な評価を得られるであろう)事実操作量Y0が制御部44により算出され、制御対象40に与えられる。このため、制御対象40の特性が時とともに変化した場合であっても、その変化に適応的に追従し、好適な制御特性を維持することができる。
【0068】
なお、以上説明した本発明の実施の形態1及び2は種々の変形実施が可能である。たとえば、以上の説明ではニューラルネットワークの結合荷重wij,uikの更新、即ち重みベクトルWiの更新を、式(5)及び式(6)に従って行うようにしたが、その他の更新方法を採用してもよい。
【0069】
また、評価値ElやEとしては、学習ベクトルに対応してあらゆる情報を採用することができる。たとえば、学習ベクトル毎の確信度、重要度、刺激程度などを評価値ElやEとして採用することができる。
【0070】
さらに、実施の形態2に係る適応制御装置では、基準入力としてランダムな値を加算器42に与えるとともに、スイッチ34を端子36側に切り換えて該端子36からランダムな値を与え、実際の装置の使用に先立ち、ニューラルネットワークの学習をある程度済ませておくようにしてもよい。
【図面の簡単な説明】
【図1】 本発明の実施の形態1に係る方法で用いるニューラルネットワークの構成を示す図である。
【図2】 図1に示すニューラルネットワークの学習手順を説明するフロー図である。
【図3】 図1に示すニューラルネットワークの学習の様子を説明する図である。
【図4】 学習後の重みベクトル空間の様子を示す図である。
【図5】 図1に示すニューラルネットワークを用い、事実入力ベクトルから事実出力ベクトルを算出する手順を説明するフロー図である。
【図6】 図1に示すニューラルネットワークを用いて、事実入力ベクトルに対する競合層の各ニューロンモデルの部分反応度が算出される様子を示す図である。
【図7】 競合層の各ニューロンモデルの部分反応度に基づいて、事実入力ベクトルに対応する事実出力ベクトルが算出される様子を示す図である。
【図8】 事実出力ベクトルの計算過程を説明する図である。
【図9】 本発明の実施の形態2に係る適応制御装置の構成を示す図である。
【符号の説明】
10 入力層、12 競合層、20 第1結合荷重記憶部、22 第2結合荷重記憶部、24 部分反応度算出部、26 操作量算出部、28 結合荷重更新部、30,32 遅延素子、34 スイッチ、36 端子、38 評価部、40制御対象、42 加算器、44 制御部、46 学習部。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a control device manufacturing method, a control device, a data generation device, an input / output characteristic determination method, and a correlation evaluation method, and more particularly to a control device manufacturing method, a control device, a data generation device, an input using a neural network. The present invention relates to an output characteristic determination method and a correlation evaluation method.
[0002]
[Prior art and problems to be solved by the invention]
In designing a high-performance control device, accurate information about the characteristics of the controlled object and the environment in which the controlled object is placed must be obtained in advance. However, in reality, it is often difficult to obtain such information correctly.
[0003]
For this reason, the characteristics of the control device are determined by actually giving a large number of pairs of operation signals and manipulated variables to the object to be controlled and investigating what control results are obtained. It is practical.
[0004]
At this time, if a method for evaluating the relation between the operation signal and the operation amount is proposed based on a large number of pairs of the operation signal and the operation amount and the individual evaluation on the pair, a preferable operation signal is obtained based on the evaluation result. It is possible to easily design and manufacture the control device by determining the relationship with the operation amount.
[0005]
In addition to the characteristics of the control device as described above, generally, if a method for evaluating the correlation between two data (including vector data) based on individual evaluation for each data pair is proposed. Is meaningful.
[0006]
In this regard, neural network technology is the best technology for processing individual data and individual evaluations. However, existing neural network models simply classify input data or simply map data. No neural network model that can evaluate the correlation between two data has been proposed yet.
[0007]
The present invention has been made in view of the above problems, and a first object is to control the characteristics of a control device that can be easily determined based on individual evaluation of a plurality of pairs of operation signals and operation amounts. It is to provide a method for manufacturing an apparatus.
[0008]
A second object is to provide a control device that allows a neural network to learn preferable characteristics of the control device and control a controlled object in accordance with the learning content.
[0009]
A third object is to provide a data generation device that can cause a neural network to learn the correlation between two data and the evaluation thereof, and generate data corresponding to certain data according to the learning content. There is.
[0010]
A fourth object is to provide an input / output characteristic determination method capable of easily determining the input / output characteristics of a target device based on individual evaluation for a plurality of pairs of input / output data.
[0011]
Furthermore, the fifth object is to provide a correlation evaluation method capable of evaluating the correlation between two data based on the individual evaluation for each data pair.
[0012]
[Means for Solving the Problems]
(1) In order to solve the above problems, a control device according to the present invention.For determining relationship between operation signal and operation amountIsPlaced in the first layer of the neural network,A neuron model for motion signals corresponding to individual data elements constituting the motion signal, and a neuron model for operation amounts corresponding to the individual data elements constituting the operation amount,A first layer neuron model group including,Arranged in the second layer of the neural network,Combines with the neuron model for motion signals and manipulated variablesSecond layerNeuron modelGroup andThe firstStratumOolong modelgroupAre sequentially input a pair of learning operation signal and operation amount, and the pair of operation signal and operation amount and the corresponding operation signal and operation amount pair.Includes an evaluation value representing the degree of positive or negative evaluationBased on the individual evaluation information, the neuron model for the operation signal and the manipulated variable and the second modelStratumUpdated the coupling load with the uron model groupLearning means for performing at least one neuron model in the second-layer neuron model group on a connection load between the neuron model and each neuron model included in the first-layer neuron model group. If the individual evaluation information includes a positive evaluation value with respect to a learning vector having each element as an individual data element constituting the learning operation signal and operation amount, the evaluation value When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of the calculation is associated with the corresponding combined load. The learning means to be the updated value ofThe input / output characteristics of the control device are determined based on the updated combined loadA determination unit for determining a connection load between each neuron model included in the second-layer neuron model group and the neuron model for motion signal as an input to the control device, and including the second-layer neuron model group in the second-layer neuron model group When the connection load between each neuron model to be operated and the neuron model for operation signals is the output of the control device, an operation is performed to obtain a function representing the relationship between the input and the output, and the result of this operation And determining means for setting an input / output characteristic of the control device as a function ofIt is characterized by that.
[0013]
  In the present invention, a pair of learning motion signals and manipulated variables is sequentially input to the first layer neuron model, and the individual evaluation information such as the learning motion signal and manipulated variable pairs and the stability of the control amount, for example. Based on the above, the combined load is updated. By doing this, the connection weights are sequentially updated so that the neuron model located nearby in the second layer reacts to a pair of operation signals and manipulated variables with similar input / output relationships. Based on the combined load, a pair of an operation signal and an operation amount corresponding to a certain individual evaluation can be obtained. As a result, for example, a pair of an operation signal and an operation amount that stabilizes the control amount can be obtained from the combined load, and the characteristics of the control device can be easily determined.Dobe able to.
[0014]
(2) Further, the control device according to the present invention is a control device using a neural network, and is an operation signal that is arranged in the first layer of the neural network and receives individual data elements constituting the operation signal. A first layer neuron model group including a neuron model for operation, and a neuron model for operation amount to which individual data elements constituting the operation amount are input, and arranged on the second layer of the neural network for the operation signal And a second layer neuron model group coupled to the operation amount neuron model, an operation signal and an operation amount input to the first layer neuron model group, and the operation signal and the operation amountIncludes an evaluation value representing the degree of positive or negative evaluationLearning means for updating a connection load between the first layer neuron model group and the second layer neuron model group based on the individual evaluation informationA weight having at least one neuron model of the second-layer neuron model group as a component with a connection weight between the neuron model and each neuron model included in the first-layer neuron model group. When the individual evaluation information includes a positive evaluation value, the vector is brought closer to a distance proportional to the evaluation value with respect to the learning vector having each data element constituting the operation signal and the operation amount as the element. When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of this calculation Learning meansWhen,An operation signal is input to the operation signal neuron model,The motion signal and the combined loadBased on the product of the value obtained by substituting the value into a preset equation and the neuron model included in the second layer neuron model group and the connection weight between the neuron models for operation The valueOperation amount to be output in response to the operation signalAsAnd an operation amount calculating means for calculating.
[0015]
As described above, information about a pair of an operation signal and an operation amount whose individual evaluation is positive is stored in the combined load. Therefore, in the present invention, when a certain motion signal is given, an operation amount corresponding to the motion signal can be calculated based on the motion signal and the coupling load. For example, when an operation signal is given, the operation amount calculation means can calculate a corresponding operation amount and a high stability of the control amount based on the operation signal and the coupling load. For this reason, according to the control device according to the present invention, it is possible to cause the neural network to learn preferable characteristics of the control device, and to control the control target according to the learning content. Further, if learning by the learning means is performed in parallel with the control of the control target, the control target can be adaptively controlled.
[0016]
  In one aspect of the present invention, the operation amount calculation meansThe preset formula in is, Included in the second layer neuron model groupOneConnection load between neuron model and neuron model for motion signalVector with each elementAnd operation signalIs a formula that takes a larger value as the distance between the vector and each vector constituting each data element is smaller, and the manipulated variable calculation meansEach neuron model included in the second layer neuron model groupThe calculation is performed by substituting the connection load between the neuron model and the neuron model for motion signal and the motion signal input to the neuron model for motion signal into the preset equation. The result value is assigned to each neuron model included in the second-layer neuron model group.Partial reactivity of the motion signal toAsMeans for calculating; a neuron model included in the second layer neuron model group; andoperationThe connection load between the neuron model for quantity andThe neuron models included in the two-layer neuron model groupThe partial reactivity;Product ofBased onThe valueManipulation amountAsAnd means for calculating.
[0017]
  In this aspect, each partial reactivity of the second layer neuron model group with respect to the input of the motion signal is first calculated. Then, based on the partial reactivity and the connection load between the control neuron model and the second layer neuron model group, it corresponds to the operation signal.operationCalculate the amount. For example, the connection load between the control neuron model and the second layer neuron model group is weighted and added by the partial reactivity,operationWhat is necessary is just to calculate quantity. In this way, based on the learning contents of the neural network, it corresponds to the operation signal.operationThe amount can be calculated.
[0018]
(3) A data generation device according to the present invention is a data generation device that generates second data based on first data, and is arranged in a first layer of a neural network, and each of the first data A first layer neuron model group including a first neuron model corresponding to a data element and a second neuron model corresponding to an individual data element of the second data; and a second layer of the neural network, A second layer neuron model group coupled to the first and second neuron models;Inputting first data into the first neuron model;A connection load between the first layer neuron model group and the second layer neuron model group;A value based on a product of a value obtained by performing the calculation by substituting the first data into a preset equation and a connection weight between the second layer neuron model group and the second neuron model TheSecond dataAsIn the learning stage, a pair of first and second data for learning is sequentially input to the first layer neuron model group, and the pair of first and second data for learning is included. And against itIncludes an evaluation value representing the degree of positive or negative evaluationBased on the individual evaluation information, the connection weight between the first layer neuron model group and the second layer neuron model group is updated.In this update process, for at least one neuron model in the second layer neuron model group, a connection load between the neuron model and each neuron model included in the first layer neuron model group is set as each element. When the individual evaluation information includes a positive evaluation value with respect to a learning vector having individual data elements of the first and second data for learning as each element, the weight vector to be proportional to the evaluation value When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of this calculation is updated for the corresponding combined load. Later valueIt is characterized by that.
[0019]
According to the present invention, the neural network learns the correlation between the first data and the second data and the evaluation thereof, and generates the second data corresponding to the given first data according to the learning content. Can do.
[0020]
(4) Also, input / output characteristics determination according to the present inventionapparatusDetermines the input / output characteristics that determine the relationship between the input data and output data of the target device.apparatusBecausePlaced in the first layer of the neural network,A neuron model for input data corresponding to each data element of the input data, and a neuron model for output data corresponding to each data element of the output data,Include1st layerNeuron model group and,Arranged in the second layer of the neural network,Combine with the neuron model for input data and output dataSecond layerNeuron model groupWhen,The firstStratumOolong modelgroupSequentially input a pair of input and output data for learning, and the pair of data and corresponding dataIncludes an evaluation value representing the degree of positive or negative evaluationBased on the individual evaluation information, the input data and output data neuron models and the second dataStratumUpdated the coupling load with the uron model groupLearning means for performing at least one neuron model in the second-layer neuron model group on a connection load between the neuron model and each neuron model included in the first-layer neuron model group. When the individual evaluation information includes a positive evaluation value with respect to a learning vector having individual elements of the input data and output data as the weight vector, the distance is proportional to the evaluation value. When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of this calculation is the updated value of the associated load And learning means and beforeDetermine the input / output characteristics of the target device based on the combined loadA determining unit, wherein a connection load between each neuron model included in the second layer neuron model group and the neuron model for input data is set as an input of the target device, and is included in the second layer neuron model group; When the connection load between each neuron model and the output data neuron model is the output of the target device, an operation is performed to obtain a function representing the relationship between the input and the output. Determining means for setting a function as an input / output characteristic of the target device.It is characterized by that.
[0021]
In this way, the input / output data of the target device and its individual evaluation can be learned by the neural network, and the input / output characteristics of the target device can be determined based on the learning result.
[0022]
(5) Correlation evaluation according to the present inventionapparatusIs a correlation evaluation that evaluates the correlation between the first data and the second dataapparatusBecausePlaced in the first layer of the neural network,A first data neuron model corresponding to each data element of the first data, and a second data neuron model corresponding to each data element of the second data.A first layer neuron model group including,Arranged in the second layer of the neural network,Combine with the first and second data neuron modelsSecond layerNeuron model groupWhen,The firstStratumOolong modelgroupSequentially input a pair of first and second data for learning, and the pair of data and the corresponding data pairIncludes an evaluation value representing the degree of positive or negative evaluationBased on the individual evaluation information, the first and second data neuron models and the second dataStratumUpdated the coupling load with the uron model groupLearning means for performing at least one neuron model in the second-layer neuron model group on a connection load between the neuron model and each neuron model included in the first-layer neuron model group. When the individual evaluation information includes a positive evaluation value with respect to a learning vector in which the individual data elements of the first and second data for learning are each element, When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a proportional distance, and to move away by a distance proportional to the evaluation value. Learning means to be the updated value,Evaluating the correlation between the first data and the second data based on the bond weightEvaluation means, wherein a connection load between each neuron model included in the second layer neuron model group and the first data neuron model is defined as first data, and each of the second layer neuron model groups includes When the connection load between the neuron model and the second data neuron model is the second data, an operation is performed to obtain a function representing the relationship between the first data and the second data. Evaluation means, wherein the resulting function is a function representing a correlation between the first data and the second data.It is characterized by that.
[0023]
In this way, the correlation between the two data can be evaluated based on the individual evaluation for each data pair.
[0024]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the drawings.
[0025]
Embodiment 1 FIG.
In the first embodiment, using a neural network, a method for evaluating the correlation between two data and a method for determining input / output characteristics of a target device, in particular, a relationship between an operation signal and an operation amount in a control device is determined. A method will be described.
[0026]
In the following description, alphabetic characters representing various variables are used, but the uppercase alphabet represents a vector quantity and the lowercase alphabet represents a scalar quantity.
[0027]
FIG. 1 is a diagram for explaining a method according to this embodiment, and shows a configuration of a neural network used in this method. In the neural network shown in the figure, a learning vector I is input to a neuron model (hereinafter also referred to as “unit”) arranged in the input layer 10, and the neuron model of these input layers 10 is arranged in the competitive layer 12. Synapse with the neuron model.
[0028]
The neuron models arranged in the input layer 10 are roughly classified into two. The neuron model to which the first vector X is input belongs to the first category, and the neuron model to which the second vector Y is input belongs to the second category. That is, the learning vector I is composed of the first vector X and the second vector Y as shown in the following equation (1).
[0029]
[Expression 1]
Figure 0004267726
The number of neuron models belonging to the first class is equal to the number of components (data elements) of the first vector X, and the number of neuron models belonging to the second class is equal to the number of components of the second vector Y. . Here, it is assumed that the first vector X has n components, and the second vector Y has m components. For this reason, a total of (n + m) neuron models are arranged in the input layer 10.
[0030]
For example, when it is desired to evaluate the correlation between two data, one data may be associated with the first vector and the other data may be associated with the second vector. Further, when determining the input / output characteristics of the target device, the input signal of the target device may correspond to the first vector, and the output signal may correspond to the second vector. Furthermore, when determining the relationship between the operation signal and the operation amount in the control device, the operation signal may correspond to the first vector and the operation amount may correspond to the second vector.
[0031]
Further, the j-th neuron model belonging to the first classification is the same as the i-th neuron model arranged in the competitive layer 12 and the connection weight w.ijIt is assumed that the synapse is connected. In addition, the kth neuron model belonging to the second category is different from the ith neuron model arranged in the competitive layer 12 with the connection weight u.ikIt is assumed that the synapse is connected. And the combined load wijAnd combined load uikAnd the weight vector W for the i-th neuron model of the competitive layer 12iIs configured as shown in the following equation (2).
[0032]
[Expression 2]
Figure 0004267726
FIG. 2 is a flowchart for explaining a procedure when the above-described neural network is trained.
[0033]
As shown in the flowchart, in order to make the neural network learn, first, s learning vectors Il(L = 1 to s) is prepared (S101). This learning vector is a pair of the first vector X and the second vector Y, and is a pair of random vectors, and individual evaluation information must be prepared for each of these pairs. For example, when determining the characteristic of the control device by this method, the pair of the operation signal and the manipulated variable is expressed as a learning vector I.lThe information indicating how the control amount behaves when the pair is input / output of the control device may be used as the individual evaluation information.
[0034]
Next, the learning repetition number Ite is set to 0 (S102), and the learning vector IlIs set to 0 (S103). And the learning vector I prepared in S101lAre input to the neuron model arranged in the input layer 10 of the neural network shown in FIG. 1 (S104).
[0035]
  Learning vector I in the input layer 101Is given, the winner unit (winning neuron), ie the learning vector I1The neuron model of the competitive layer 12 that most responds to is determined (S105). Specifically, the Euclidean distance between the i-th neuron model of the competitive layer 12 and the neuron model of the input layer 10 is expressed by the following equation (3).D iAnd the shortest one is the winner unit.
[0036]
[Equation 3]
Figure 0004267726
When determining the winner unit, the fuzzy similarity measure S shown in the following equation (4):iMay be calculated for each neuron model of the competitive layer 12, and the neuron model having the smallest value may be determined as the winner unit. In the equation (4), x∧w means a smaller value of either x or w. X∨w means a larger value of x and w.
[0037]
[Expression 4]
Figure 0004267726
Next, in this method, a neuron model located in the vicinity of the winner unit, that is, a neighboring unit is determined (S106). For example, when the i-th neuron model of the competitive layer 12 is a winner unit, assuming that the neuron model of the competitive layer 12 is linearly arranged as shown in FIG. 1, the competitive layer (i-2) The preceding and following neuron models such as the (i + 2) -th neuron model may be selected as the neighborhood unit.
[0038]
Thereafter, the method uses the weight vector W for the winner unit and neighboring units.iIs updated by the following equations (5) and (6) (S107).
[0039]
[Equation 5]
Figure 0004267726
First, the above equation (5) represents the learning vector IlThis is an update formula used when the evaluation of is positive. In equation (5), Wi oldIs the weight vector W before updateiAnd Wi newIs the updated weight vector WiIt is. Α (t) is a learning coefficient, and a function of t that decreases with time is adopted. In addition, ElIs an evaluation value taking a positive real value, and the learning vector IlRepresents positive individual evaluation information given to.
[0040]
Weight vector W by this equation (5)iBy updating the learning vector IlIs positive, the weight vector W of the winner unit and its neighboring unitsiIs the learning coefficient α (t) and the evaluation value ElIs proportional to the learning vector IlWill approach.
[0041]
On the other hand, the above equation (6) represents the learning vector IlThis is an update formula used when the evaluation of is negative. In the equation (6), sign is a sign function. ElIs an evaluation value taking a negative real value, and the learning vector IlRepresents negative individual evaluation information given to.
[0042]
Weight vector W by this equation (6)iBy updating the learning vector IlIs negative, the weight vector W of the winner unit and its neighboring unitsiIs the learning vector IlIt will be away from. At that time, the weight vector WiIs the learning vector IlThe distance away from the learning coefficient α (t) and the evaluation value ElIs proportional to Further, a closer weight vector W is obtained by the action of the exponential function on the right side of the equation (6)jIs larger learning vector IlIt will be kept away from.
[0043]
Thereafter, if the variable l is less than the maximum value s (S108), l is incremented (S110), and the next learning vector IlIs given to the input layer 10 of the neural network (S104). On the other hand, if the variable l reaches the maximum value s (S108), it is determined whether the iteration number It has reached the set value ITE (S109). If not, the iteration number It is incremented (S111), and the variable l Is returned to 0 (S103), and the learning vector I0 is again applied to the input layer 10 of the neural network (S104).
[0044]
As described above, this method uses a pair of two data such as input / output data of the target device as a learning vector of the neural network. When the neural network is trained in this way, as will be described below, the correlation between data pairs given a certain evaluation can be obtained from the coupling load of the neural network.
[0045]
3 and 4 are diagrams schematically illustrating how the neural network learns when both the first vector X and the second vector Y have only one component. In this case, the learning vector I has two components and the weight vector WiHas two components corresponding to the first vector X and the second vector Y.
[0046]
  In FIG. 3, the learning vector space (plane), the weight vector space (plane), and the competitive layer 12 are drawn in order from the top. The learning vector space has coordinate axes corresponding to the first vector X and the second vector Y. When a learning vector I is given, it can be associated with one point on the plane. On the other hand, the weight vector space isweightHas axes corresponding to the two components of the vector W;weightVector WiThe end point is drawn at one point on the plane.
[0047]
  As shown in the figure, when a certain learning vector I is given, a winner unit is determined from a neuron model arranged in the competitive layer 12. This winner unit has an end point at a point closest to that point when the learning vector I is represented as one point on the weight vector space.weightVector WiIt is. Subsequently, a neighboring unit for the winner unit is also selected. In the figure, since the neuron model is arranged in a plane in the competitive layer 12, a unit surrounding the winner unit is selected as a neighboring unit.
[0048]
If the individual evaluation for the given learning vector I is affirmative and the evaluation value E takes a positive value, the weight vector W of the winner unit and the neighboring unitiIs updated according to the above equation (5). In this case, the neighboring unit weight vector WiIs not necessarily the winner unit weight vector WiIt is not similar to. However, as learning progresses, the winner unit weight vector WiAnd weight vector W of neighboring unitsiGradually becomes similar.
[0049]
Although not particularly shown in the figure, when the evaluation with respect to the input learning vector I is negative, that is, when the evaluation value E takes a negative value, according to the above equation (6), the winner unit and the neighboring unit Weight vector WiIs updated to move away from the learning vector I.
[0050]
FIG. 4A is a diagram illustrating a state of the weight vector space after learning progresses. As shown in the figure, when learning progresses to a considerable extent, the weight vector WiEach point representing the end point of is gathered in the vicinity of the learning vector I given a positive evaluation. Therefore, this weight vector WiBy examining the distribution of, the relationship between the first vector X and the second vector Y included in the learning vector I can be evaluated.
[0051]
For example, when an operation signal input to the control device is employed as the first vector X and an operation amount output from the control device is employed as the second vector Y, a data pair of these operation signal and operation amount and an individual evaluation Is sufficiently learned in advance by a neural network, as shown in FIG. 5A, a plurality of weight vectors W in a weight vector space can be obtained as a data pair of an operation signal and an operation amount capable of stably controlling a control amount.iWill be obtained as the end point of. For this reason, for example, the weight vector W shown in FIG.iBy interpolating the end points of these, a function representing the relationship between the operation signal and the operation amount as shown in FIG. As a result, by setting the function in the control device in advance, it is possible to easily design a control device that outputs an appropriate operation amount when given a certain operation signal. This also applies to determining the input / output characteristics of the target device.
[0052]
Further, as described above, the correlation between the first vector X and the second vector Y may be once evaluated after learning of the neural network, but it corresponds to the first vector X without performing such an evaluation. The preferred (which will give a positive evaluation) second vector Y is the weight vector WiCan be calculated based on
[0053]
FIG. 5 shows the weight vector WiFIG. 6 is a flowchart for explaining a procedure for calculating a preferable second vector Y corresponding to the first vector X from FIG.
[0054]
In this procedure, as shown in FIG. 6, only the first vector X is first given to the input layer 10 of the neural network. Here, the first vector X is distinguished from the first vector X which is a constituent element of the learning vector used in the learning stage.0(S201). In the following, this fact input vector X0In order to distinguish the second vector Y corresponding to the second vector Y which is a component of the learning vector used in the learning stage, in particular, the fact output vector Y0.
[0055]
Next, the fact input vector X0The output z of each neuron model on the competitive layer 12 forp(Hereinafter referred to as “partial reactivity”) is calculated according to the following equation (7) (S202). In the equation (7), β is a given constant.
[0056]
[Formula 6]
Figure 0004267726
Then, the partial reactivity z obtained in S202pAnd combined load UprAnd the fact output vector Y according to the following equation (8)0Is calculated (S203). FIG. 7 shows this fact output vector Y0This shows the concept of the calculation process.
[0057]
[Expression 7]
Figure 0004267726
Equation (8) is the combined load UprIs the partial reactivity zpWhen the weighted addition is used, the fact output vector Y0The r-th component of can be calculated.
[0058]
For example, when the first vector X and the second vector Y both have only one component, if the weight vector W is represented on the weight vector space as shown in FIG. Vector X0, The weight vector W in the region 14 is obtained in the above-described processing.iCentered on the neuron model having the end point ofpWill have a large value. Then, when the equation (8) is calculated, the weight vector W in this region 14 is calculated.iThe value of the connection weight u for the neuron model having the end points of γ becomes dominant, and the fact output vector Y is shown around the arrow 16 in FIG.0Will be obtained.
[0059]
As described above, the weight vector WiFrom this, a preferable second vector Y corresponding to the first vector X can be calculated.
[0060]
Embodiment 2. FIG.
In the second embodiment, an adaptive control apparatus to which the method according to the first embodiment described above is applied will be described.
[0061]
FIG. 9 is a diagram showing a configuration of the adaptive control apparatus according to the present embodiment. The adaptive control apparatus shown in the figure maintains and updates the neural network shown in FIG. 1 as hardware, and the first connection load storage unit 20 and the second connection are provided between the control unit 44 and the learning unit 46. The load storage unit 22 is shared and can be accessed from both sides at any time. The first connection load storage unit 20 stores the connection load w in the neural network shown in FIG.ijThe second connection weight storage unit stores the connection weight u in the neural network shown in FIG.ikIs memorized.
[0062]
First, the learning unit 46 includes a connection load update unit 28, an evaluation unit 38, and first and second connection load storage units 20 and 22. The evaluation unit 38 evaluates a control amount obtained from the control target 40 and gives an evaluation value E to the combined load update unit 28. Specifically, information representing the stability of the controlled variable can be adopted as the evaluation value E, and the value takes a continuous value from −1 to +1.
[0063]
An operation amount Y output from the control unit 44 is also input to the combined load update unit 28 via the switch 34 and the delay element 32. An operation signal X that is a difference between the reference input and the feedback amount is also generated by the adder 42 and is input to the coupling load update unit 28 via the delay element 30. The delay elements 30 and 32 are set with delay times so that the operation signal X, the operation amount Y, and the evaluation value E correspond to each other. The operation signal X has n data elements, the manipulated variable Y has m data elements, and these are transmitted through a plurality of signal lines.
[0064]
The combined load update unit 28 then calculates the weight vector W based on the above equations (5) and (6).iIs updated in real time, and the updated combined load wij, UikAre stored in the first and second combined load storage units 20 and 22, respectively.
[0065]
On the other hand, the control unit 44 includes a partial reactivity calculation unit 24, an operation amount calculation unit 26, and first and second combined load storage units 20 and 22. The partial reactivity calculation unit 24 receives the bond load w from the first bond load storage unit 20.pqAnd the fact operation signal (actual input vector) X from the adder 420Is entered. Then, in the partial reactivity calculation unit 24, based on these pieces of information, the partial reactivity z according to the above equation (7).pAre calculated for neuron models on all competitive layers 12.
[0066]
Further, the operation amount calculation unit 26 receives the combined load u from the second combined load storage unit 22.prIs input from the partial reactivity calculation unit 24 to the partial reactivity zpIs entered. Then, the manipulated variable calculator calculates the actual manipulated variable (actual output vector) Y according to the above equation (8) based on these pieces of information.0Is calculated. And the calculated actual manipulated variable Y0Is given to the control object 40.
[0067]
In the adaptive control apparatus described above, the contents of the first and second combined load storage units 20 and 22 are updated as needed based on various evaluation elements such as the stability of the control target 40. Then, according to the contents of the first and second combined load storage units 20 and 22 updated as needed, the fact operation signal X0The preferred manipulated variable Y (which will give a positive evaluation)0Is calculated by the control unit 44 and given to the control object 40. For this reason, even when the characteristics of the controlled object 40 change with time, it is possible to adaptively follow the change and maintain suitable control characteristics.
[0068]
The first and second embodiments of the present invention described above can be variously modified. For example, in the above description, the connection weight w of the neural networkij, UikUpdate, ie, the weight vector WiIs updated according to the equations (5) and (6), but other updating methods may be adopted.
[0069]
Evaluation value ElAs E and E, any information corresponding to the learning vector can be adopted. For example, the confidence value, importance level, and stimulus level for each learning vector are set as the evaluation value ElOr E.
[0070]
Furthermore, in the adaptive control device according to the second embodiment, a random value is given as a reference input to the adder 42, and the switch 34 is switched to the terminal 36 side to give a random value from the terminal 36. Prior to use, the neural network may be learned to some extent.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a neural network used in a method according to a first embodiment of the present invention.
FIG. 2 is a flowchart for explaining a learning procedure of the neural network shown in FIG.
FIG. 3 is a diagram for explaining how the neural network shown in FIG. 1 learns.
FIG. 4 is a diagram showing a state of a weight vector space after learning.
FIG. 5 is a flowchart for explaining a procedure for calculating a fact output vector from a fact input vector using the neural network shown in FIG. 1;
6 is a diagram illustrating a state in which partial reactivity of each neuron model in a competitive layer with respect to a fact input vector is calculated using the neural network illustrated in FIG. 1;
FIG. 7 is a diagram showing how a fact output vector corresponding to a fact input vector is calculated based on partial reactivity of each neuron model in a competitive layer.
FIG. 8 is a diagram illustrating a process of calculating a fact output vector.
FIG. 9 is a diagram showing a configuration of an adaptive control apparatus according to Embodiment 2 of the present invention.
[Explanation of symbols]
DESCRIPTION OF SYMBOLS 10 Input layer, 12 Competitive layers, 20 1st bond load memory | storage part, 22 2nd bond load memory | storage part, 24 Partial reactivity calculation part, 26 Manipulation amount calculation part, 28 Bond load update part, 30, 32 Delay element, 34 Switch, 36 terminal, 38 evaluation part, 40 control object, 42 adder, 44 control part, 46 learning part.

Claims (7)

制御装置における動作信号と操作量との関係を決定する装置であって、
ニューラルネットワークの第1層に配置され、動作信号を構成する個々のデータ要素に対応する動作信号用ニューロンモデルと、操作量を構成する個々のデータ要素に対応する操作量用ニューロンモデルと、を含む第1層ニューロンモデル群と
前記ニューラルネットワークの第2層に配置され、前記動作信号用及び操作量用ニューロンモデルと結合する第2層ニューロンモデル群と
前記第1層ニューロンモデルに、学習用の動作信号及び操作量の対を順次入力し、該動作信号及び操作量の対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記動作信号用及び操作量用ニューロンモデルと前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記学習用の動作信号及び操作量を構成する個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と
更新後の前記結合荷重に基づいて前記制御装置の入出力特性を決定する決定手段であって、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記動作信号用ニューロンモデルとの間の結合荷重を前記制御装置の入力とし、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記操作信号用ニューロンモデルとの間の結合荷重を前記制御装置の出力とした場合の当該入力と当該出力との間の関係を表す関数を得る演算を行い、この演算の結果の関数を前記制御装置の入出力特性とする、決定手段と、
を備えることを特徴とする装置
A device for determining a relationship between an operation signal and an operation amount in a control device,
Disposed in a first layer of the neural network, including an operation signal neuron model corresponding to the individual data elements that make up the operation signal, the neuron model for operation amount corresponding to the individual data elements that make up the operation amount, the A first layer neuron model group ;
A second layer neuron model group arranged in the second layer of the neural network and coupled to the motion signal and manipulated variable neuron models;
The first Soni Yuronmoderu group, enter the operation signal and the operation amount of the pair of learning sequence, including the evaluation value representing the degree of positive or negative evaluation to it a pair of said operating signal and the operation amount based on the individual evaluation information, a learning means for updating the connection weights between the second Soni Yuronmoderu group and said operation signal and the operation amount for the neuron model, of the second layer neuron model group For at least one neuron model, a weight vector having a connection load between the neuron model and each neuron model included in the first-layer neuron model group as an element, an operation signal for learning, and an operation amount. If the individual evaluation information includes a positive evaluation value for a learning vector that has individual data elements as constituent elements, the distance is proportional to the evaluation value. When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of this calculation is the updated value of the associated load And learning means ,
A determining means based on the connection weights updated to determine the input and output characteristics of the control device, between each neuron model and the operation signal for the neuron model contained in the second layer neuron model group The input when the connection load is an input of the control device, and the connection load between each neuron model included in the second layer neuron model group and the neuron model for operation signals is the output of the control device, and the input A determination means for performing a calculation to obtain a function representing a relationship between the output and a function of a result of the calculation as an input / output characteristic of the control device;
Apparatus comprising: a.
ニューラルネットワークを用いた制御装置であって、
前記ニューラルネットワークの第1層に配置され、動作信号を構成する個々のデータ要素が入力される動作信号用ニューロンモデルと、操作量を構成する個々のデータ要素が入力される操作量用ニューロンモデルと、を含む第1層ニューロンモデル群と、
前記ニューラルネットワークの第2層に配置され、前記動作信号用及び操作量用ニューロンモデルと結合する第2層ニューロンモデル群と、
前記第1層ニューロンモデル群に入力される動作信号及び操作量と、該動作信号及び操作量に対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報と、に基づいて、前記第1層ニューロンモデル群と前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記動作信号及び操作量を構成する個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と、
前記動作信号用ニューロンモデルに動作信号を入力し、該動作信号と前記結合荷重とを予め設定された式に代入して演算を行った結果の値と、前記第2層ニューロンモデル群に含まれるニューロンモデルと前記操作用ニューロンモデルとの間の前記結合荷重と、の積に基づく値を該動作信号に対応して出力すべき操作量として算出する操作量算出手段と、
を含むことを特徴とする制御装置。
A control device using a neural network,
A neuron model for motion signals that is arranged in the first layer of the neural network and receives individual data elements constituting motion signals; and a neuron model for manipulated variables that receives individual data elements that constitute manipulated variables; A first layer neuron model group including:
A second layer neuron model group arranged in the second layer of the neural network and coupled to the motion signal and manipulated variable neuron models;
Based on the operation signal and the operation amount input to the first layer neuron model group, and individual evaluation information including an evaluation value representing a degree of positive or negative evaluation with respect to the operation signal and the operation amount, Learning means for updating a connection weight between a first layer neuron model group and the second layer neuron model group , wherein at least one neuron model in the second layer neuron model group is A weight vector having a connection load between each neuron model included in the first layer neuron model group as an element is a learning vector having individual data elements constituting the motion signal and an operation amount as elements. When the individual evaluation information includes a positive evaluation value, the individual evaluation information approaches a distance proportional to the evaluation value, and the individual evaluation information sets a negative evaluation value. No case performs an operation away by a distance that is proportional to the evaluation value, a value of the updated corresponding connection weights each element of the weight vector of the result of this calculation, the learning means,
Enter an operation signal to the operation signal for the neuron model, included in the operation signal and the bond and a preset value of the assignment to a result of the calculation in Equation load, the second layer neuron model group An operation amount calculation means for calculating a value based on the product of the connection load between a neuron model and the neuron model for operation as an operation amount to be output corresponding to the operation signal;
The control apparatus characterized by including.
請求項2に記載の制御装置において、
前記操作量算出手段における前記予め設定された式は、前記第2層ニューロンモデル群に含まれる1つのニューロンモデルと前記動作信号用ニューロンモデルとの間の結合荷重を各要素とするベクトルと、動作信号を構成する個々のデータ要素を各要素とするベクトルと、の間の距離が小さいほど大きな値をとる式であり、
前記操作量算出手段は、
前記第2層ニューロンモデル群に含まれる各ニューロンモデルについて、当該ニューロンモデルと前記動作信号用ニューロンモデルとの間の結合荷重と、前記動作信号用ニューロンモデルに入力された前記動作信号と、を前記予め設定された式に代入して演算を行った結果の値を、前記第2層ニューロンモデル群に含まれる各ニューロンモデルの該動作信号に対する部分反応度として算出する手段と、
前記第2層ニューロンモデル群に含まれるニューロンモデルと前記操作量用ニューロンモデルとの間の結合荷重と、前記2層ニューロンモデル群に含まれるニューロンモデルの前記部分反応度と、の積に基づく値を前記操作量として算出する手段と、
を含むことを特徴とする制御装置。
The control device according to claim 2,
The preset equation in the manipulated variable calculation means includes a vector having a connection load between one neuron model included in the second layer neuron model group and the neuron model for motion signal as an element , This is an expression that takes a larger value as the distance between the vector and the individual data elements constituting the signal is smaller,
The operation amount calculation means includes:
For each neuron model included in the second layer neuron model group, the connection load between the neuron model and the neuron model for motion signal, and the motion signal input to the neuron model for motion signal, Means for calculating a value of a result obtained by substituting into a preset equation as a partial reactivity with respect to the motion signal of each neuron model included in the second layer neuron model group ;
Based on the product of the connection weight between the neuron model included in the second layer neuron model group and the neuron model for manipulated variable and the partial reactivity of the neuron model included in the second layer neuron model group. Means for calculating the value as the manipulated variable ;
The control apparatus characterized by including.
請求項2又は3に記載の制御装置において、
前記個別評価情報は、前記制御装置の制御対象に前記操作量を与えたときに当該制御対象から取得される制御量を評価することで生成されることを特徴とする制御装置。
The control device according to claim 2 or 3,
The individual evaluation information is generated by evaluating a control amount acquired from the control target when the operation amount is given to the control target of the control device.
第1データに基づいて第2データを生成するデータ生成装置であって、
ニューラルネットワークの第1層に配置され、前記第1データの個々のデータ要素に対応する第1ニューロンモデルと、前記第2データの個々のデータ要素に対応する第2ニューロンモデルと、を含む第1層ニューロンモデル群と、
前記ニューラルネットワークの第2層に配置され、前記第1及び第2ニューロンモデルと結合する第2層ニューロンモデル群と、
前記第1ニューロンモデルに第1データを入力し、前記第1層ニューロンモデル群と前記第2層ニューロンモデル群との間の結合荷重と当該第1データとを予め設定された式に代入して演算を行った結果の値と、前記第2層ニューロンモデル群と前記第2ニューロンモデルとの間の結合荷重と、の積に基づく値を第2データとして算出するデータ算出手段と、を含み、
学習段階では、前記第1層ニューロンモデル群に学習用の第1及び第2データの対が順次入力され、該学習用の第1及び第2データの対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記第1層ニューロンモデル群と前記第2層ニューロンモデル群との間の結合荷重が更新され、この更新処理において、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記学習用の第1及び第2データの個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、
ことを特徴とするデータ生成装置。
A data generation device that generates second data based on first data,
A first neuron model disposed in a first layer of the neural network and corresponding to individual data elements of the first data; and a second neuron model corresponding to individual data elements of the second data. Layer neuron model group,
A second layer neuron model group disposed in the second layer of the neural network and coupled to the first and second neuron models;
First data is input to the first neuron model, and a connection load between the first layer neuron model group and the second layer neuron model group and the first data are substituted into a preset equation. Data calculating means for calculating, as second data , a value based on the product of the result of the operation and the connection load between the second layer neuron model group and the second neuron model ;
In the learning stage, the first and second data pairs for learning are sequentially input to the first layer neuron model group, and the first and second data pairs for learning and positive or negative evaluations thereof are performed. The connection load between the first layer neuron model group and the second layer neuron model group is updated based on the individual evaluation information including the evaluation value indicating the degree of the second layer neuron model . In this update process, the second layer For at least one neuron model in the neuron model group, a weight vector having a connection weight between the neuron model and each neuron model included in the first layer neuron model group as an element is used for the learning. When the individual evaluation information includes a positive evaluation value with respect to a learning vector having individual data elements of the first and second data as elements, the evaluation value is proportional to the evaluation value. When the individual evaluation information includes a negative evaluation value, the calculation is performed to move away by a distance proportional to the evaluation value, and after updating the corresponding combined load, each element of the weight vector as a result of this calculation is performed. The value of
A data generation apparatus characterized by that.
対象装置の入力データ及び出力データの関係を決定する入出力特性決定装置であって、
ニューラルネットワークの第1層に配置され、前記入力データの個々のデータ要素に対応する入力データ用ニューロンモデルと、前記出力データの個々のデータ要素に対応する出力データ用ニューロンモデルと、を含む第1層ニューロンモデル群と
前記ニューラルネットワークの第2層に配置され、前記入力データ用及び出力データ用ニューロンモデルと結合する第2層ニューロンモデル群と、
記第1層ニューロンモデルに学習用の入力及び出力データの対を順次入力し、該データの対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記入力データ用及び出力データ用ニューロンモデルと前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記入力データ及び出力データの個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と
記結合荷重に基づいて前記対象装置の入出力特性を決定する決定手段であって、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記入力データ用ニューロンモデルとの間の結合荷重を前記対象装置の入力とし、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記出力データ用ニューロンモデルとの間の結合荷重を前記対象装置の出力とした場合の当該入力と当該出力との間の関係を表す関数を得る演算を行い、この演算の結果の関数を前記対象装置の入出力特性とする、決定手段と、
を備えることを特徴とする入出力特性決定装置
An input / output characteristic determination device for determining a relationship between input data and output data of a target device,
Disposed in a first layer of the neural network, the first containing the input data neuron model corresponding to the individual data elements of the input data, and the neuron model output data corresponding to the individual data elements of said output data, the Layer neuron model group ,
A second layer neuron model group arranged in the second layer of the neural network and coupled to the input data and output data neuron models ;
Before SL sequentially inputs a pair of input and output data for learning first Soni Yuronmoderu group, to the individual evaluation information including an evaluation value representing the degree of positive or negative evaluation to it and said pair of data based on, a learning means for updating the connection weights between the input data and output data for a neuron model second Soni Yuronmoderu group, at least one neuron of the second layer neuron model group For the model, a weight vector having each element as a connection weight between the neuron model and each neuron model included in the first layer neuron model group, and each data element of the input data and output data as each element When the individual evaluation information includes a positive evaluation value with respect to the learning vector to be When the valence information includes a negative evaluation value, a calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of this calculation is used as a value after updating the corresponding connection weight. Means ,
A determining means for determining the input-output characteristics of the target device based on the previous SL connection weights, the connection weight between the neurons model and the input data for the neuron model contained in the second layer neuron model group The input and the output when the connection load between each neuron model included in the second layer neuron model group and the neuron model for output data is the output of the target device. A determination means for performing a calculation to obtain a function representing a relationship between the two, and setting a function of a result of the calculation as an input / output characteristic of the target device;
Output characteristic determining apparatus comprising: a.
第1データと第2データとの間の相関関係を評価する相関関係評価装置であって、
ニューラルネットワークの第1層に配置され、前記第1データの個々のデータ要素に対応する第1データ用ニューロンモデルと、前記第2データの個々のデータ要素に対応する第2データ用ニューロンモデルと、を含む第1層ニューロンモデル群と
前記ニューラルネットワークの第2層に配置され、前記第1データ用及び第2データ用ニューロンモデルと結合する第2層ニューロンモデル群
記第1層ニューロンモデルに学習用の第1及び第2データの対を順次入力し、該データの対とそれに対する肯定的又は否定的な評価の程度を表す評価値を含む個別評価情報とに基づいて、前記第1データ用及び第2データ用ニューロンモデルと前記第2層ニューロンモデル群との間の結合荷重を更新する学習手段であって、前記第2層ニューロンモデル群のうちの少なくとも1つのニューロンモデルについて、当該ニューロンモデルと前記第1層ニューロンモデル群に含まれる各ニューロンモデルとの間の結合荷重を各要素とする重みベクトルを、前記学習用の第1及び第2データの個々のデータ要素を各要素とする学習ベクトルに対して、前記個別評価情報が肯定的な評価値を含む場合は当該評価値に比例する距離だけ近づけ、前記個別評価情報が否定的な評価値を含む場合は当該評価値に比例する距離だけ遠ざける演算を行い、この演算の結果の前記重みベクトルの各要素を対応する結合荷重の更新後の値とする、学習手段と
記結合荷重に基づいて第1データと第2データとの間の相関関係を評価する評価手段であって、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記第1データ用ニューロンモデルとの間の結合荷重を第1データとし、前記第2層ニューロンモデル群に含まれる各ニューロンモデルと前記第2データ用ニューロンモデルとの間の結合荷重を第2データとした場合の当該第1データと当該第2データとの間の関係を表す関数を得る演算を行い、この演算の結果の関数を前記第1データと第2データとの間の相関関係を表す関数とする、評価手段と、
を備えることを特徴とする相関関係評価装置
A correlation evaluation apparatus for evaluating a correlation between first data and second data,
A first data neuron model corresponding to each data element of the first data, and a second data neuron model corresponding to each data element of the second data , arranged in the first layer of the neural network ; A first layer neuron model group including :
Wherein arranged in the second layer of the neural network, a second layer neuron model group that binds to said first data and second data neuron model,
Before SL sequentially inputs a pair of first and second data for learning the first Soni Yuronmoderu group, individual evaluation information including an evaluation value representing the degree of positive or negative evaluation to it and said pair of data based on the bets, a learning means for updating the connection weights between the second Soni Yuronmoderu group and the first data and the second data neuron model, of said second layer neuron model group For at least one neuron model, a weight vector having each element as a connection weight between the neuron model and each neuron model included in the first layer neuron model group is used as the first and second data for learning. When the individual evaluation information includes a positive evaluation value with respect to a learning vector having individual data elements as elements, the distance is proportional to the evaluation value, When the evaluation information includes a negative evaluation value, a calculation is performed to move away by a distance proportional to the evaluation value, and each element of the weight vector as a result of the calculation is used as a value after updating the corresponding joint weight. Means ,
Correlation an evaluation means for evaluating the respective neuron model and the first data for neuron models included in the second layer neuron model group between the first and second data based on the previous SL coupling load Is the first data, and the connection load between each neuron model included in the second layer neuron model group and the second data neuron model is the second data. An evaluation means for performing an operation for obtaining a function representing a relationship between the data and the second data, and using a function as a result of the operation as a function representing a correlation between the first data and the second data; ,
Correlation evaluation device, characterized in that it comprises a.
JP29369098A 1998-10-15 1998-10-15 Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device Expired - Fee Related JP4267726B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29369098A JP4267726B2 (en) 1998-10-15 1998-10-15 Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29369098A JP4267726B2 (en) 1998-10-15 1998-10-15 Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device

Publications (3)

Publication Number Publication Date
JP2000122991A JP2000122991A (en) 2000-04-28
JP2000122991A5 JP2000122991A5 (en) 2005-12-08
JP4267726B2 true JP4267726B2 (en) 2009-05-27

Family

ID=17797982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29369098A Expired - Fee Related JP4267726B2 (en) 1998-10-15 1998-10-15 Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device

Country Status (1)

Country Link
JP (1) JP4267726B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5034041B2 (en) * 2006-07-20 2012-09-26 国立大学法人九州工業大学 Data generation circuit and data generation method
JP5130516B2 (en) * 2006-09-05 2013-01-30 国立大学法人九州工業大学 Data processing apparatus and method
JP5011529B2 (en) * 2006-11-01 2012-08-29 国立大学法人九州工業大学 Data processing apparatus, data processing method, and program

Also Published As

Publication number Publication date
JP2000122991A (en) 2000-04-28

Similar Documents

Publication Publication Date Title
Papageorgiou et al. Active Hebbian learning algorithm to train fuzzy cognitive maps
CN110414718A (en) A kind of distribution network reliability index optimization method under deep learning
Li Neural network models for intelligent support of mark‐up estimation
CN110110794B (en) Image classification method for updating neural network parameters based on feature function filtering
CN114912357A (en) Multi-task reinforcement learning user operation method and system based on user model learning
CN108460462A (en) A kind of Interval neural networks learning method based on interval parameter optimization
JP3247803B2 (en) Fuzzy neural network system
JP4267726B2 (en) Device for determining relationship between operation signal and operation amount in control device, control device, data generation device, input / output characteristic determination device, and correlation evaluation device
Xu et al. Meta-learning via weighted gradient update
Su et al. Incremental learning with balanced update on receptive fields for multi-sensor data fusion
JP3354593B2 (en) Learning system for network type information processing equipment
EP0583217B1 (en) Optimisation of feedforward neural networks
JPH07168799A (en) Learning device for neural network
Aksu et al. Training the multifeedback-layer neural network using the Particle Swarm Optimization algorithm
JPH05282269A (en) Method and device for learning/recollection
JP2674167B2 (en) Process control method using neural network model
JP2002288625A (en) Multipurpose optimization method, program and planning device
JP5011529B2 (en) Data processing apparatus, data processing method, and program
Shi et al. Adaptive reinforcement q-learning algorithm for swarm-robot system using pheromone mechanism
JP3823554B2 (en) Operation method and recording medium of neural network learning system
JP3029451B2 (en) Fuzzy control device
JPH05242063A (en) Neural network system
Nikravesh et al. Process control of nonlinear time variant processes via artificial neural network
CN117970791A (en) Multi-agent consistency cooperative control method based on deep reinforcement learning
JPH05143757A (en) Method and device for learning neural network

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051014

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051014

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20051014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees