JP2015028783A - 自律学習型制御器 - Google Patents
自律学習型制御器 Download PDFInfo
- Publication number
- JP2015028783A JP2015028783A JP2014155494A JP2014155494A JP2015028783A JP 2015028783 A JP2015028783 A JP 2015028783A JP 2014155494 A JP2014155494 A JP 2014155494A JP 2014155494 A JP2014155494 A JP 2014155494A JP 2015028783 A JP2015028783 A JP 2015028783A
- Authority
- JP
- Japan
- Prior art keywords
- control signal
- state quantity
- sensor information
- control
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Feedback Control In General (AREA)
Abstract
【課題】学習により蓄積された状態量と制御信号の関係から、センサ情報により検出される状態量に対応する制御信号を推定する手段を提供する。
【解決手段】センサ情報から検出した状態量Xと対応する制御信号Yを記録する。自律学習型制御器の学習フェーズにおいてはセンサ情報から検出した状態量と対応する制御信号の組を逐次記録していく。実行フェーズにおいてはセンサ情報から状態量が検出されると、センサ情報から検出された状態量に近い状態量の組が選択され、同時に状態量に対応する制御信号の組も選択される。センサ情報から検出された状態量と選択された状態量との近さ(距離R)が計算され、この近さ(距離)の情報および選択された状態量に対応する制御信号から、検出された状態量に対応する制御信号を推定する。
【選択図】図2
【解決手段】センサ情報から検出した状態量Xと対応する制御信号Yを記録する。自律学習型制御器の学習フェーズにおいてはセンサ情報から検出した状態量と対応する制御信号の組を逐次記録していく。実行フェーズにおいてはセンサ情報から状態量が検出されると、センサ情報から検出された状態量に近い状態量の組が選択され、同時に状態量に対応する制御信号の組も選択される。センサ情報から検出された状態量と選択された状態量との近さ(距離R)が計算され、この近さ(距離)の情報および選択された状態量に対応する制御信号から、検出された状態量に対応する制御信号を推定する。
【選択図】図2
Description
この発明は自律学習型制御器に関するものである。
従来の制御器はセンサ入力により制御信号を生成し、アクチュエータに出力し制御対象の状態変数を所定の目標値に制御する。制御信号の生成のためには事前に制御対象のモデル化を実施し、制御則を設定する必要がある。
従来の制御器は周期的な誤差の影響を低減するために制御系全体のゲインを大きく設定することにより対応している。
従来の制御器は周期的な誤差の影響を低減するために制御系全体のゲインを大きく設定することにより対応している。
従来の制御器はセンサ入力により制御信号を生成し、アクチュエータに出力し制御対象の状態変数を所定の目標値に制御する。制御信号の生成のためには事前に制御対象のモデル化を実施し、制御則を設定する必要がある。入力および出力が多次元となる場合は制御則も複雑になり、また制御対象が複雑な系の場合、制御則の計算も複雑になり、実時間の制御への適用が困難となる等の課題があった。
従来の制御器は周期的な誤差の影響を低減するために制御系全体のゲインを大きく設定することにより対応しているが、制御系全体のゲインを大きくすると安定性を損なう等の課題があった。
従来の制御器は周期的な誤差の影響を低減するために制御系全体のゲインを大きく設定することにより対応しているが、制御系全体のゲインを大きくすると安定性を損なう等の課題があった。
(請求項1に対応)
従来の制御器はセンサ情報から検出した状態量に制御則を適用し制御信号を生成する。制御則はあらかじめ定義しプログラム等としてインストールしておく必要がある。
(請求項2に対応)
従来の制御器は運動プロファイルに逆動力学を利用して生成した制御信号とセンサ情報から検出した状態量に制御則を適用して生成した制御信号を合成して制御信号を生成する。適用する制御則はあらかじめ定義し、プログラム等としてインストールしておく必要がある。
(請求項3に対応)
従来の制御器はセンサ情報から人間が制御信号を生成し、制御対象を制御している。
(請求項4に対応)
従来の制御器は目標とする状態量と、現在の状態量の差に対し、制御則を適用し、現在の状態を目標とする状態に近づけるよう制御を行っている。
(請求項5に対応)
従来の制御器は制御系のゲインを上げることにより周期的な誤差の影響を低減している。
(請求項6に対応)
従来の制御器は制御系のゲインを上げることにより周期的な誤差の影響を低減している。
(請求項7に対応)
従来の制御器は制御系のゲインを上げることにより複数の周期的な誤差の影響を低減している。
(請求項8に対応)
従来の制御器は運動プロファイルに逆動力学を利用して生成した制御信号とセンサ情報から検出した状態量に制御則を適用して生成した制御信号を合成して制御信号を生成し、周期的な誤差に対しては制御系のゲインを上げることにより誤差の影響を低減している。
(請求項1に対応)
従来の制御器はセンサ情報から検出した状態量に制御則を適用し制御信号を生成する。制御則はあらかじめ定義しプログラム等としてインストールしておく必要がある。制御則の作成には制御対象のモデル化、制御則の設計等が必要であり、開発に多大な労力を要する等のデメリットがあった。
(請求項2に対応)
従来の制御器は運動プロファイルに逆動力学を利用して生成した制御信号とセンサ情報から検出した状態量に制御則を適用して生成した制御信号を合成して制御信号を生成する。適用する制御則はあらかじめ定義し、プログラム等としてインストールしておく必要がある。制御則の作成には制御対象のモデル化、制御則の設計等が必要であり、開発に多大な労力を要する等のデメリットがあった。
(請求項3に対応)
従来の制御器はセンサ情報から人間が制御信号を生成し、制御対象を制御している。制御の実施には人間が必要であり、多大な労力を要する等のデメリットがあった。
(請求項4に対応)
従来の制御器は目標とする状態量と、現在の状態量の差に対し、制御則を適用し、現在の状態を目標とする状態に近づけるよう制御を行っている。制御則の作成には制御対象のモデル化、制御則の設計等が必要であり、開発に多大な労力を要する等のデメリットがあった。また、人間が実施可能である試行的に制御を実施し、その結果として徐々に目標とする状態量に近づける等の動作は実施困難であった。
(請求項5に対応)
従来の制御器は周期的な誤差の影響を低減するために、制御系のゲインを上げることにより対応している。一般的に制御系のゲインを上げると、制御系の安定性が劣化する等のデメリットがあった。
(請求項6に対応)
従来の制御器は周期的な誤差の影響を低減するために、制御系のゲインを上げることにより対応している。一般的に制御系のゲインを上げると、制御系の安定性が劣化する等のデメリットがあった。
(請求項7に対応)
従来の制御器は周期的な誤差の影響を低減するために、制御系のゲインを上げることにより対応している。一般的に制御系のゲインを上げると、制御系の安定性が劣化する等のデメリットがあった。
(請求項8に対応)
従来の制御器は運動プロファイルに逆動力学を利用して生成した制御信号とセンサ情報から検出した状態量に制御則を適用して生成した制御信号を合成して制御信号を生成し、周期的な誤差に対しては制御系のゲインを上げることにより誤差の影響を低減している。
一般的に制御系のゲインを上げると、制御系の安定性が劣化する等のデメリットがあった。
一般的に制御系のゲインを上げると、制御系の安定性が劣化する等のデメリットがあった。
(請求項1に対応)
この発明における自律学習型制御器はセンサ情報から検出した状態量と対応する制御信号を記録する。自律学習型制御器の学習フェーズにおいてはセンサ情報から検出した状態量と対応する制御信号の組を逐次記録していく。実行フェーズにおいてはセンサ情報から状態量が検出されると、センサ情報から検出された状態量に近い状態量の組が選択され、同時に状態量に対応する制御信号の組も選択される。センサ情報から検出された状態量と選択された状態量との近さ(距離)が計算され、この近さ(距離)の情報および選択された状態量に対応する制御信号から、検出された状態量に対応する制御信号が推定される。この手法により学習により蓄積された状態量と制御信号の関係から、センサ情報により検出される状態量に対応する制御信号が推定されることになる。
(請求項2に対応)
この発明における自律学習型制御器はセンサ情報と、運動プロファイルおよび逆動力学を利用して生成した制御信号を記録する。自律学習型制御器の学習フェーズにおいてはセンサ情報から検出した状態量と対応する制御信号の組を逐次記録していく。実行フェーズにおいてはセンサ情報から状態量が検出されると、センサ情報から検出された状態量に近い状態量の組が選択され、同時に状態量に対応する制御信号の組も選択される。センサ情報から検出された状態量と選択された状態量との近さ(距離)が計算され、この近さ(距離)の情報および選択された状態量に対応する制御信号から、検出された状態量に対応する制御信号が推定される。この手法により学習により蓄積された状態量と制御信号の関係から、センサ情報により検出される状態量に対応する制御信号が推定されることになる。
(請求項3に対応)
この発明における自律学習型制御器はセンサ情報から検出した状態量と、その状態量に対し人間系により生成された制御信号を記録する。自律学習型制御器の学習フェーズにおいてはセンサ情報から検出した状態量と対応する制御信号の組を逐次記録していく。実行フェーズにおいてはセンサ情報から状態量が検出されると、センサ情報から検出された状態量に近い状態量の組が選択され、同時に状態量に対応する制御信号の組も選択される。センサ情報から検出された状態量と選択された状態量との近さ(距離)が計算され、この近さ(距離)の情報および選択された状態量に対応する制御信号から、検出された状態量に対応する制御信号が推定される。この手法により学習により蓄積された状態量と制御信号の関係から、センサ情報により検出される状態量に対応する制御信号が推定されることになる。
(請求項4に対応)
この発明における自律学習型制御器は試行的に実施した制御信号または制御プロファイルおよび制御信号および制御プロファイルに起因する状態量を記録する。自律学習型制御器の学習フェーズにおいては試行的に実施した制御信号または制御プロファイルおよび制御信号および制御プロファイルに起因する状態量の組を逐次記録していく。実行フェーズにおいては目標とする状態量を設定すると、目標とする状態量に近い状態量の組が選択され、同時に状態量に対応する制御信号の組も選択される。目標とする状態量と選択された状態量との近さ(距離)が計算され、この近さ(距離)の情報および選択された状態量に対応する制御信号から、目標とする状態量に対応する制御信号が推定される。この手法により試行的に実施した制御信号と起因する状態量の関係から、目標とする状態量に近づける制御信号が逐次推定されることになる。
(請求項5に対応)
この発明における自律学習型制御器は、周期的な誤差の周波数を検出する。検出した周波数におけるゲインを増加させることにより周期的な誤差を低減する。ゲインの増加は特定の周波数に対応する範囲に限るため、制御系全体のゲインを増加させた場合において発生する制御系安定性の劣化を回避することができる。
(請求項6に対応)
この発明における制御器は、設定した周波数におけるゲインを増加させることにより周期的な誤差を低減する。ゲインの増加は設定した周波数に対応する範囲に限るため、制御系全体のゲインを増加させた場合において発生する制御系安定性の劣化を回避することができる。
(請求項7に対応)
この発明における制御器は、設定した複数の周波数におけるゲインを増加させることにより周期的な誤差を低減する。ゲインの増加は設定した複数の周波数に対応する範囲に限るため、制御系全体のゲインを増加させた場合において発生する制御系安定性の劣化を回避することができる。
(請求項8に対応)
この発明における制御器は運動プロファイルに対応した周波数におけるゲインを増加させることにより、運動プロファイルに起因する周期的な誤差を低減する。ゲインの増加は設定した周波数に対応する範囲に限るため、制御系全体のゲインを増加させた場合において発生する制御系安定性の劣化を回避することができる。
(請求項1に対応)
図1は従来型制御器の構成を示したものである。
図1において1は制御対象の状態を検出するセンサである。2はセンサで検出した状態量から制御信号を生成する制御器である。制御器にはあらかじめ制御則が設定されている。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。
図2はこの発明の一実施例における自律学習型制御器の構成を示した図である。
図2において1は制御対象の状態を検出するセンサである。2はセンサで検出した状態量から制御信号を生成する制御器である。制御器にはあらかじめ制御則が設定されている。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および2の制御器で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報に対応する制御信号を生成する制御信号推定器である。
図1において1は制御対象の状態を検出するセンサである。2はセンサで検出した状態量から制御信号を生成する制御器である。制御器にはあらかじめ制御則が設定されている。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。
図2はこの発明の一実施例における自律学習型制御器の構成を示した図である。
図2において1は制御対象の状態を検出するセンサである。2はセンサで検出した状態量から制御信号を生成する制御器である。制御器にはあらかじめ制御則が設定されている。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および2の制御器で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報に対応する制御信号を生成する制御信号推定器である。
次に動作について説明する。
自律学習型制御器の学習フェーズの動作は次のようになる。2の制御器により計算された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量と、それに対応し2の制御器で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量からの制御を実施し、多くの状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量と対応する制御信号から、センサで検出した状態に対応する制御信号を推定する。推定はセンサで検出した状態量に対応する制御信号は近傍の状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量に対応する制御信号は、センサで検出した状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量を示している。X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
自律学習型制御器の学習フェーズの動作は次のようになる。2の制御器により計算された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量と、それに対応し2の制御器で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量からの制御を実施し、多くの状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量と対応する制御信号から、センサで検出した状態に対応する制御信号を推定する。推定はセンサで検出した状態量に対応する制御信号は近傍の状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量に対応する制御信号は、センサで検出した状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量を示している。X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
(請求項2に対応)
図3はこの発明の一実施例における自律学習型制御器の構成を示した図である。
図3において1は制御対象の状態を検出するセンサである。8は運動プロファイルを生成する運動プロファイル生成器である。9は8で生成した運動プロファイルから逆動力学を利用して制御信号を生成する制御信号生成器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルを示す状態量と9の制御信号生成器で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量および運動プロファイルを示す状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報および運動プロファイルを示す状態量に対応する制御信号を生成する制御信号推定器である。
図3において1は制御対象の状態を検出するセンサである。8は運動プロファイルを生成する運動プロファイル生成器である。9は8で生成した運動プロファイルから逆動力学を利用して制御信号を生成する制御信号生成器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルを示す状態量と9の制御信号生成器で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量および運動プロファイルを示す状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報および運動プロファイルを示す状態量に対応する制御信号を生成する制御信号推定器である。
次に動作について説明する。
自律学習型制御器の学習フェーズの動作は次のようになる。9の制御信号生成器により計算された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。9の制御信号生成器は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルから逆動力学を利用して制御信号を生成する。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量および運動プロファイルを示す状態量と、それに対応し9の制御信号生成器で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量および運動プロファイルからの制御を実施し、多くの状態量および運動プロファイルを示す状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量および運動プロファイルを示す状態量と対応する制御信号から、センサで検出した状態および運動プロファイルを示す状態量に対応する制御信号を推定する。推定はセンサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は近傍の状態量および運動プロファイルを示す状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量および運動プロファイルを示す状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量および運動プロファイルを示す状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は、センサで検出した状態量および運動プロファイルを示す状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量および運動プロファイを示す状態量を示している。
X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
自律学習型制御器の学習フェーズの動作は次のようになる。9の制御信号生成器により計算された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。9の制御信号生成器は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルから逆動力学を利用して制御信号を生成する。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量および運動プロファイルを示す状態量と、それに対応し9の制御信号生成器で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量および運動プロファイルからの制御を実施し、多くの状態量および運動プロファイルを示す状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量および運動プロファイルを示す状態量と対応する制御信号から、センサで検出した状態および運動プロファイルを示す状態量に対応する制御信号を推定する。推定はセンサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は近傍の状態量および運動プロファイルを示す状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量および運動プロファイルを示す状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量および運動プロファイルを示す状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は、センサで検出した状態量および運動プロファイルを示す状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量および運動プロファイを示す状態量を示している。
X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
(請求項3に対応)
図4はこの発明の一実施例における自律学習型制御器の構成を示した図である。
図4において1は制御対象の状態を検出するセンサである。10はセンサで検出した状態量から人間系による制御信号生成である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および10の人間系で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報に対応する制御信号を生成する制御信号推定器である。
図4において1は制御対象の状態を検出するセンサである。10はセンサで検出した状態量から人間系による制御信号生成である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および10の人間系で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報に対応する制御信号を生成する制御信号推定器である。
次に動作について説明する。
自律学習型制御器の学習フェーズの動作は次のようになる。10の人間系により生成された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量と、それに対応し10の人間系で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量からの制御を実施し、多くの状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量と対応する制御信号から、センサで検出した状態に対応する制御信号を推定する。推定はセンサで検出した状態量に対応する制御信号は近傍の状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量に対応する制御信号は、センサで検出した状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量を示している。X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
自律学習型制御器の学習フェーズの動作は次のようになる。10の人間系により生成された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量と、それに対応し10の人間系で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量からの制御を実施し、多くの状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量と対応する制御信号から、センサで検出した状態に対応する制御信号を推定する。推定はセンサで検出した状態量に対応する制御信号は近傍の状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量に対応する制御信号は、センサで検出した状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量を示している。X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
(請求項4に対応)
図6はこの発明の一実施例における自律学習型制御器の構成を示した図である。
図6において1は制御対象の状態を検出するセンサである。11は試行的な制御信号生成器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および11の試行的な制御信号の組を記録する記録器である。12は制御の目標となる状態量を設定する目標設定器である。6は目標とした状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、目標とした状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された目標とした状態量との近さ(距離)の情報を使用して、目標とした状態量に対応する制御信号を生成する制御信号推定器である。
図6において1は制御対象の状態を検出するセンサである。11は試行的な制御信号生成器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および11の試行的な制御信号の組を記録する記録器である。12は制御の目標となる状態量を設定する目標設定器である。6は目標とした状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、目標とした状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された目標とした状態量との近さ(距離)の情報を使用して、目標とした状態量に対応する制御信号を生成する制御信号推定器である。
次に動作について説明する。
自律学習型制御器の学習フェーズの動作は次のようになる。11の試行的な制御信号生成器により生成された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量と、それに対応し11の試行的な制御信号生成器で生成された制御信号を組として記録する。学習フェーズにおいては数々の試行的な制御信号を使用した制御を実施し、多くの状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量と対応する制御信号から、12の目標設定器で生成された目標の状態に近づける制御信号を推定する。推定は目標とした状態量に近づける制御信号は目標とした状態量の近傍の状態量に対応する制御信号に近いという考えに基づいている。目標とした状態量に近い複数の状態量を6の近傍データ選択器により、選択する。目標とした状態量と、複数の近傍の状態量との距離が計算される。目標とした状態量に対応する制御信号は、目標とした状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図7に目標値に対応する制御信号推定器の動作例を示している。
試行的な制御Y1,Y2,Y3,Y4,Y5・・・YNを実施することにより、制御の結果の状態量がX1,X2,X3,X4,X5・・・XNになったとする。Xは目標とした状態量を示している。
X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。目標とした状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
自律学習型制御器の学習フェーズの動作は次のようになる。11の試行的な制御信号生成器により生成された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量と、それに対応し11の試行的な制御信号生成器で生成された制御信号を組として記録する。学習フェーズにおいては数々の試行的な制御信号を使用した制御を実施し、多くの状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量と対応する制御信号から、12の目標設定器で生成された目標の状態に近づける制御信号を推定する。推定は目標とした状態量に近づける制御信号は目標とした状態量の近傍の状態量に対応する制御信号に近いという考えに基づいている。目標とした状態量に近い複数の状態量を6の近傍データ選択器により、選択する。目標とした状態量と、複数の近傍の状態量との距離が計算される。目標とした状態量に対応する制御信号は、目標とした状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図7に目標値に対応する制御信号推定器の動作例を示している。
試行的な制御Y1,Y2,Y3,Y4,Y5・・・YNを実施することにより、制御の結果の状態量がX1,X2,X3,X4,X5・・・XNになったとする。Xは目標とした状態量を示している。
X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。目標とした状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
(請求項5に対応)
図8はこの発明の一実施例における周期誤差を低減する制御器の構成例を示した図である。図8において1は制御対象の状態を検出するセンサである。2は制御信号を生成する制御器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。12は1のセンサで検出された状態量から周期誤差の周波数を検出する周期誤差検出器である。13は12の周期誤差検出器において検出した周期誤差の周波数の近傍のゲインを大幅に増加させる特定周波数ゲイン増加器である。
次に動作について説明する。
図10は特定周波数ゲイン増加器の構成例について示したものである。特定周波数ゲイン増加器の具体的実現例としては図10の上段に示す分母が2次の伝達特性、分子が2次の伝達特性を有したものがある。分母の周波数ω2が低減したい周期誤差の周波数となるように設定する。分子の周波数ω1はω2よりも小さな値に設定する。また分母のダンピング係数ξ2は小さな値に設定する。特定周波数ゲイン増加器の周波数特性を図10の下段に示す。ゲインは周波数がω2の近傍で大きな値を示す。
てゲインを求めると次の値となる。
ξ2は小さな値に設定すると分母の値が小さくなるため、ゲインを大きく設定できることになる。周波数ω2から離れた周波数領域では大きなゲインの変化および位相の変化は無いため、制御系の安定性を劣化させることは無い。このような特定周波数ゲイン増加器を制御系の中に組み入れると、周波数ω2近傍の制御系のゲインが大きくなるため、周波数ω2近傍の周期誤差を大幅に低減することができる。
図10は特定周波数ゲイン増加器の構成例について示したものである。特定周波数ゲイン増加器の具体的実現例としては図10の上段に示す分母が2次の伝達特性、分子が2次の伝達特性を有したものがある。分母の周波数ω2が低減したい周期誤差の周波数となるように設定する。分子の周波数ω1はω2よりも小さな値に設定する。また分母のダンピング係数ξ2は小さな値に設定する。特定周波数ゲイン増加器の周波数特性を図10の下段に示す。ゲインは周波数がω2の近傍で大きな値を示す。
てゲインを求めると次の値となる。
ξ2は小さな値に設定すると分母の値が小さくなるため、ゲインを大きく設定できることになる。周波数ω2から離れた周波数領域では大きなゲインの変化および位相の変化は無いため、制御系の安定性を劣化させることは無い。このような特定周波数ゲイン増加器を制御系の中に組み入れると、周波数ω2近傍の制御系のゲインが大きくなるため、周波数ω2近傍の周期誤差を大幅に低減することができる。
(請求項6に対応)
図9はこの発明の一実施例における周期誤差を低減する制御器の構成例を示した図である。図9において1は制御対象の状態を検出するセンサである。2は制御信号を生成する制御器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。13は設定した特定の周波数近傍のゲインを大幅に増加させる特定周波数ゲイン増加器である。
次に動作について説明する。
図10は特定周波数ゲイン増加器の構成例について示したものである。特定周波数ゲイン増加器の具体的実現例としては図10の上段に示す分母が2次の伝達特性、分子が2次の伝達特性を有したものがある。分母の周波数ω2が低減したい周期誤差の周波数となるように設定する。分子の周波数ω1はω2よりも小さな値に設定する。また分母のダンピング係数ξ2は小さな値に設定する。特定周波数ゲイン増加器の周波数特性を図10の下段に示す。ゲインは周波数がω2の近傍で大きな値を示す。
てゲインを求めると次の値となる。
ξ2は小さな値に設定すると分母の値が小さくなるため、ゲインを大きく設定できることになる。周波数ω2から離れた周波数領域では大きなゲインの変化および位相の変化は無いため、制御系の安定性を劣化させることは無い。このような特定周波数ゲイン増加器を制御系の中に組み入れると、周波数ω2近傍の制御系のゲインが大きくなるため、周波数ω2近傍の周期誤差を大幅に低減することができる。
図10は特定周波数ゲイン増加器の構成例について示したものである。特定周波数ゲイン増加器の具体的実現例としては図10の上段に示す分母が2次の伝達特性、分子が2次の伝達特性を有したものがある。分母の周波数ω2が低減したい周期誤差の周波数となるように設定する。分子の周波数ω1はω2よりも小さな値に設定する。また分母のダンピング係数ξ2は小さな値に設定する。特定周波数ゲイン増加器の周波数特性を図10の下段に示す。ゲインは周波数がω2の近傍で大きな値を示す。
てゲインを求めると次の値となる。
ξ2は小さな値に設定すると分母の値が小さくなるため、ゲインを大きく設定できることになる。周波数ω2から離れた周波数領域では大きなゲインの変化および位相の変化は無いため、制御系の安定性を劣化させることは無い。このような特定周波数ゲイン増加器を制御系の中に組み入れると、周波数ω2近傍の制御系のゲインが大きくなるため、周波数ω2近傍の周期誤差を大幅に低減することができる。
(請求項7に対応)
図9はこの発明の一実施例における周期誤差を低減する制御器の構成例を示した図である。図9において1は制御対象の状態を検出するセンサである。2は制御信号を生成する制御器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。13は設定した複数の特定周波数近傍のゲインを大幅に増加させる特定周波数ゲイン増加器である。
次に動作について説明する。
図11は複数の特定周波数ゲイン増加器の構成例について示したものである。特定周波数ゲイン増加器の具体的実現例としては図11の上段に示す分母が2次の伝達特性、分子が2次の伝達特性を有したものがある。まず、一段目の伝達特性について注目すると、分母の周波数ω2が低減したい周期誤差の周波数となるように設定する。分子の周波数ω1はω2よりも小さな値に設定する。また分母のダンピング係数ξ2は小さな値に設定する。特定周波数ゲイン増加器の周波数特性を図11の下段に示す。ゲインは周波数がω2の近傍で大きな値を示す。より高次の伝達特性であるN次についても同様にωN+1近傍のゲインを増加させることができる。
てゲインを求めると次の値となる。
ξ2は小さな値に設定すると分母の値が小さくなるため、ゲインを大きく設定できることになる。周波数ω2から離れた周波数領域では大きなゲインの変化および位相の変化は無いため、制御系の安定性を劣化させることは無い。このような特定周波数ゲイン増加器を制御系の中に組み入れると、周波数ω2近傍の制御系のゲインが大きくなるため、周波数ω2近傍の周期誤差を大幅に低減することができる。より高次の伝達特性であるN次についても同様にωN+1近傍のゲインを増加させることができる。
図11は複数の特定周波数ゲイン増加器の構成例について示したものである。特定周波数ゲイン増加器の具体的実現例としては図11の上段に示す分母が2次の伝達特性、分子が2次の伝達特性を有したものがある。まず、一段目の伝達特性について注目すると、分母の周波数ω2が低減したい周期誤差の周波数となるように設定する。分子の周波数ω1はω2よりも小さな値に設定する。また分母のダンピング係数ξ2は小さな値に設定する。特定周波数ゲイン増加器の周波数特性を図11の下段に示す。ゲインは周波数がω2の近傍で大きな値を示す。より高次の伝達特性であるN次についても同様にωN+1近傍のゲインを増加させることができる。
てゲインを求めると次の値となる。
ξ2は小さな値に設定すると分母の値が小さくなるため、ゲインを大きく設定できることになる。周波数ω2から離れた周波数領域では大きなゲインの変化および位相の変化は無いため、制御系の安定性を劣化させることは無い。このような特定周波数ゲイン増加器を制御系の中に組み入れると、周波数ω2近傍の制御系のゲインが大きくなるため、周波数ω2近傍の周期誤差を大幅に低減することができる。より高次の伝達特性であるN次についても同様にωN+1近傍のゲインを増加させることができる。
(請求項8に対応)
図12はこの発明の一実施例における自律学習型制御器の構成を示した図である。
図12において1は制御対象の状態を検出するセンサである。8は運動プロファイルを生成する運動プロファイル生成器である。9は8で生成した運動プロファイルから逆動力学を利用して制御信号を生成する制御信号生成器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルを示す状態量と9の制御信号生成器で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量および運動プロファイルを示す状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報および運動プロファイルを示す状態量に対応する制御信号を生成する制御信号推定器である。13は運動プロファイルの周期的な誤差を低減する特定周波数ゲイン増加器である。
図12において1は制御対象の状態を検出するセンサである。8は運動プロファイルを生成する運動プロファイル生成器である。9は8で生成した運動プロファイルから逆動力学を利用して制御信号を生成する制御信号生成器である。3は制御信号から駆動信号を生成するアクチュエータである。4は制御の対象となる制御対象である。5は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルを示す状態量と9の制御信号生成器で生成された制御信号の組を記録する記録器である。6はセンサで検出した状態量および運動プロファイルを示す状態量の近傍のデータを記録器に記録した状態量の中から複数選択する近傍データ選択器である。近傍データ選択器においては、検出した状態量と複数選択された状態量との近さ(距離)が計算される。7は選択された複数の状態量に対応する複数の制御信号と、上記で計算された検出した情報との近さ(距離)の情報を使用して、検出した情報および運動プロファイルを示す状態量に対応する制御信号を生成する制御信号推定器である。13は運動プロファイルの周期的な誤差を低減する特定周波数ゲイン増加器である。
次に動作について説明する。
自律学習型制御器の学習フェーズの動作は次のようになる。9の制御信号生成器により計算された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。9の制御信号生成器は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルから逆動力学を利用して制御信号を生成する。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量および運動プロファイルを示す状態量と、それに対応し9の制御信号生成器で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量および運動プロファイルからの制御を実施し、多くの状態量および運動プロファイルを示す状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量および運動プロファイルを示す状態量と対応する制御信号から、センサで検出した状態および運動プロファイルを示す状態量に対応する制御信号を推定する。推定はセンサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は近傍の状態量および運動プロファイルを示す状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量および運動プロファイルを示す状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量および運動プロファイルを示す状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は、センサで検出した状態量および運動プロファイルを示す状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量および運動プロファイを示す状態量を示している。
X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
制御信号推定器により生成された制御信号は13の特定周波数ゲイン増加器に入力される。特定周波数ゲイン増加器では設定された周波数のゲインを制御系の安定性を損なうことなく大幅に増加させることができる。このため、運動プロファイルにより励起された特定周波数の制御誤差は大幅に低減される。
自律学習型制御器の学習フェーズの動作は次のようになる。9の制御信号生成器により計算された制御信号は3のアクチュエータに入力され、3のアクチュエータは4の制御対象を制御する。制御により変化した状態量は1のセンサにより検出される。9の制御信号生成器は1のセンサで検出した状態量および8の運動プロファイル生成器で生成された運動プロファイルから逆動力学を利用して制御信号を生成する。
この時、自律学習型制御器における5の記録器は1のセンサで検出した状態量および運動プロファイルを示す状態量と、それに対応し9の制御信号生成器で生成された制御信号を組として記録する。学習フェーズにおいては数々の状態量および運動プロファイルからの制御を実施し、多くの状態量および運動プロファイルを示す状態量と制御信号の組を記録(学習)する。
次に自律学習型制御器の実行フェーズの動作について説明する。実行フェーズにおいては学習した状態量および運動プロファイルを示す状態量と対応する制御信号から、センサで検出した状態および運動プロファイルを示す状態量に対応する制御信号を推定する。推定はセンサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は近傍の状態量および運動プロファイルを示す状態量に対応する制御信号に近いという考えに基づいている。センサで検出した状態量および運動プロファイルを示す状態量に近い複数の状態量を6の近傍データ選択器により、選択する。センサで検出した状態量および運動プロファイルを示す状態量と、複数の近傍の状態量との距離が計算される。センサで検出した状態量および運動プロファイルを示す状態量に対応する制御信号は、センサで検出した状態量および運動プロファイルを示す状態量と複数の近傍の状態量の距離の関係により、複数の近傍の状態量に対応する複数の制御信号への重みづけを実施することにより推定する。
図5に制御信号推定器の動作例を示している。
Xはセンサで検出した状態量および運動プロファイを示す状態量を示している。
X1,X2,X3は近傍データ選択器により選択されたXの近傍の状態量である。センサで検出された状態量と近傍データX1,X2,X3との距離が計算され、それぞれR1,R2,R3であるとする。状態量X1,X2,X3に対応する制御信号がそれぞれY1,Y2,Y3とすると、Xに対応する制御信号Yは状態量間の関係を考慮すると、一例として下記の式を使用することが妥当と考えられる。
仮にXがX1に一致している場合、R1=0 となる。この時のYはY1となり理に適っている。XがX2またはX3に一致する場合は、YはそれぞれY2またはY3となり妥当である。
次にXがX1,X2,X3から等距離にあると仮定する。この場合のYは(Y1+Y2+Y3)/3となり妥当である。
上記では近傍のデータの数が3である場合について説明したが、この考えをデータの数をNに拡張することが可能である。(図5(2/2)参照)
拡張した式は下記で表現することができる。
制御信号推定器により生成された制御信号は13の特定周波数ゲイン増加器に入力される。特定周波数ゲイン増加器では設定された周波数のゲインを制御系の安定性を損なうことなく大幅に増加させることができる。このため、運動プロファイルにより励起された特定周波数の制御誤差は大幅に低減される。
(請求項1に対応)
第1の発明によれば制御器の詳細内容がブラックボックスでも、センサ情報から検出した状態量と対応する制御信号を記録(学習)することにより、入力された状態量に対応する制御信号を生成することができる。制御対象のモデル化、制御則の設計等が不要であり、開発に要する労力を大幅に低減できる。
(請求項2に対応)
第2の発明によれば制御器および運動プロファイルに対応する逆動力学の詳細内容がブラックボックスでも、センサ情報から検出した状態量と運動プロファイルから対応する制御信号を生成することができる。制御対象のモデル化、制御則、逆動力学の設計等が不要であり、開発に要する労力を大幅に低減できる。
(請求項3に対応)
第3の発明によれば、学習フェーズにおいてセンサ情報から検出した状態量と、それに対応して人間系により生成された制御信号を記録(学習)する。実行フェーズにおいては人間系が不要であるため、労力を大幅に低減できる。
(請求項4に対応)
第4の発明によれば、人間が実施可能である試行的に制御を実施し、その結果として徐々に目標とする状態量に近づける等の動作の実施が可能である。制御対象のモデル化、制御則の設計等が不要であり、開発に要する労力を大幅に低減できる。
(請求項5に対応)
第5の発明によれば、制御系の安定性を損なうことなく周期的な誤差の影響を低減できる。
(請求項6に対応)
第6の発明によれば、制御系の安定性を損なうことなく周期的な誤差の影響を低減できる。
(請求項7に対応)
第7の発明によれば、制御系の安定性を損なうことなく複数の周期的な誤差の影響を低減できる。
(請求項8に対応)
第8の発明によれば制御器および運動プロファイルに対応する逆動力学の詳細内容がブラックボックスでも、センサ情報から検出した状態量と運動プロファイルから対応する制御信号を生成することができる。制御対象のモデル化、制御則、逆動力学の設計等が不要であり、開発に要する労力を大幅に低減できる。また、運動プロファイルに起因する周期的な誤差の影響を大幅に低減できる。
1 センサ
2 制御器
3 アクチュエータ
4 制御対象
5 記録器
6 近傍データ選択器
7 制御信号推定器
8 運動プロファイル生成器
9 制御信号生成器
10 人間系による制御信号生成
11 試行的な制御信号生成器
12 目標設定器
13 特定周波数ゲイン増加器
2 制御器
3 アクチュエータ
4 制御対象
5 記録器
6 近傍データ選択器
7 制御信号推定器
8 運動プロファイル生成器
9 制御信号生成器
10 人間系による制御信号生成
11 試行的な制御信号生成器
12 目標設定器
13 特定周波数ゲイン増加器
Claims (8)
- センサ情報から検出した状態量と対応する制御信号を記録する記録器と、センサ情報に対し、記録したセンサ情報の中から近いデータを選択する近傍データ選択器と、センサ情報および近傍データの相対関係から記録した制御信号からセンサ情報に対応する制御信号を生成する制御信号推定器を備え、学習したセンサ情報と制御信号の集合からセンサ情報に対応する制御信号を生成する自律学習型制御器。
- 運動プロファイルを生成する運動プロファイル生成器と、逆動力学を利用して制御信号を生成する制御信号生成器と、センサ情報から検出した状態量と対応する制御信号を記録する記録器と、センサ情報に対し、記録したセンサ情報の中から近いデータを選択する近傍データ選択器と、センサ情報および近傍データの相対関係から記録した制御信号からセンサ情報に対応する制御信号を生成する制御信号推定器を備え、学習したセンサ情報と制御信号の集合からセンサ情報に対応する制御信号を生成する自律学習型制御器。
- センサ情報から検出した状態量と、その状態量に対し、人間系により生成された制御信号を記録する記録器と、センサ情報に対し、記録したセンサ情報の中から近いデータを選択する近傍データ選択器と、センサ情報および近傍データの相対関係から記録した制御信号からセンサ情報に対応する制御信号を生成する制御信号推定器を備え、学習したセンサ情報と制御信号の集合からセンサ情報に対応する制御信号を生成する自律学習型制御器。
- 試行的な制御信号を生成する制御信号生成器と、制御信号および制御の結果、起因する状態量を記録する記録器と、試行的に実施した制御の結果、生じた各状態量の中から目標とする状態量に近いデータを選択する近傍データ選択器と、目標とする状態量と近傍データとの相対関係と近傍データに対応する制御信号から目標とする状態量に対応する制御信号を生成する制御信号推定器を備え、試行的な制御を繰り返すことにより、生じた状態量の候補の中から、さらに目標とする状態量に近づける制御信号推定値を生成する自律学習型制御器。
- 周期的な誤差を検出する周期誤差検出器と、周期誤差検出器により検出された周期的な誤差の周波数におけるゲインを増加させる特定周波数ゲイン増加器を備え、周期的な誤差を低減する自律学習型制御器。
- 設定した周波数におけるゲインを増加させる特定周波数ゲイン増加器を備え、周期的な誤差を低減する制御器。
- 設定した複数の周波数におけるゲインを増加させる特定周波数ゲイン増加器を備え、複数の周期的な誤差を低減する制御器。
- 運動プロファイルを生成する運動プロファイル生成器と、逆動力学を利用して制御信号を生成する制御信号生成器と、運動プロファイルに対応する周波数におけるゲインを増加させる特定周波数ゲイン増加器を備え、運動プロファイルで示された状態量と実際の状態量との誤差を低減する制御器。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014155494A JP2015028783A (ja) | 2014-07-13 | 2014-07-13 | 自律学習型制御器 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014155494A JP2015028783A (ja) | 2014-07-13 | 2014-07-13 | 自律学習型制御器 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015028783A true JP2015028783A (ja) | 2015-02-12 |
Family
ID=52492422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014155494A Pending JP2015028783A (ja) | 2014-07-13 | 2014-07-13 | 自律学習型制御器 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2015028783A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4249179A1 (en) | 2022-03-22 | 2023-09-27 | Yokogawa Electric Corporation | Model verification apparatus, model verification method, and model verification program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203498A (ja) * | 1993-01-07 | 1994-07-22 | Nec Corp | ディスク装置のヘッド位置決め制御装置 |
JPH08137510A (ja) * | 1994-09-12 | 1996-05-31 | Fuji Xerox Co Ltd | システム制御装置 |
-
2014
- 2014-07-13 JP JP2014155494A patent/JP2015028783A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06203498A (ja) * | 1993-01-07 | 1994-07-22 | Nec Corp | ディスク装置のヘッド位置決め制御装置 |
JPH08137510A (ja) * | 1994-09-12 | 1996-05-31 | Fuji Xerox Co Ltd | システム制御装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP4249179A1 (en) | 2022-03-22 | 2023-09-27 | Yokogawa Electric Corporation | Model verification apparatus, model verification method, and model verification program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6519457B2 (ja) | 補正装置、補正装置の制御方法、情報処理プログラム、および記録媒体 | |
US10482379B2 (en) | Systems and methods to perform machine learning with feedback consistency | |
JP6514257B2 (ja) | 機械学習装置、サーボ制御装置、サーボ制御システム、及び機械学習方法 | |
CN108572609B (zh) | 控制装置、记录媒体以及控制系统 | |
CN107193219B (zh) | 仿真装置、仿真方法、控制程序以及记录介质 | |
CN107797446B (zh) | 模型预测控制装置、控制方法及记录介质 | |
JP2018077779A (ja) | センサインタフェース装置、測定情報通信システム、測定情報通信方法、及び測定情報通信プログラム | |
JP2018120327A (ja) | 制御装置、制御プログラムおよび制御システム | |
Debrouwere et al. | Experimental validation of combined nonlinear optimal control and estimation of an overhead crane | |
JP5973072B2 (ja) | タッチパネルコントローラ、集積回路、タッチパネル装置、および電子機器 | |
JP2019185127A5 (ja) | ニューラルネットワークの学習装置およびその制御方法 | |
US10031506B2 (en) | Motion control method, motion control device, and motion trajectory planning method | |
US20220004160A1 (en) | Positioning control device and positioning method | |
JP2015028783A (ja) | 自律学習型制御器 | |
Takemura et al. | Proposal of novel rolling friction compensation with data-based friction model for ball screw driven stage | |
CN110023857B (zh) | 伺服控制装置 | |
JP2014117787A (ja) | 制御装置 | |
JP2021082139A (ja) | 追加学習装置、方法、及びプログラム | |
Su et al. | On performance limitation in tracking a sinusoid | |
JP2010204784A (ja) | 外乱制御装置、外乱制御方法、外乱制御プログラムおよび記録媒体 | |
RU2622852C1 (ru) | Адаптивное цифровое сглаживающее и прогнозирующее устройство | |
JP7047794B2 (ja) | 制御装置および制御プログラム | |
Dong et al. | A novel ADP based model-free predictive control | |
RU2629641C1 (ru) | Цифровое прогнозирующее устройство | |
WO2015177912A1 (ja) | 指令生成装置および方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20150121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150203 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150609 |