JP2008213092A - モーション習得システムおよびモーション習得方法 - Google Patents

モーション習得システムおよびモーション習得方法 Download PDF

Info

Publication number
JP2008213092A
JP2008213092A JP2007053868A JP2007053868A JP2008213092A JP 2008213092 A JP2008213092 A JP 2008213092A JP 2007053868 A JP2007053868 A JP 2007053868A JP 2007053868 A JP2007053868 A JP 2007053868A JP 2008213092 A JP2008213092 A JP 2008213092A
Authority
JP
Japan
Prior art keywords
acceleration
slave
master
operator
force
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007053868A
Other languages
English (en)
Other versions
JP5017649B2 (ja
Inventor
Kiyoshi Oishi
潔 大石
Seiichiro Katsura
誠一郎 桂
Yoshiyuki Suzuyama
駿行 鈴山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagaoka University of Technology NUC
Original Assignee
Nagaoka University of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagaoka University of Technology NUC filed Critical Nagaoka University of Technology NUC
Priority to JP2007053868A priority Critical patent/JP5017649B2/ja
Publication of JP2008213092A publication Critical patent/JP2008213092A/ja
Application granted granted Critical
Publication of JP5017649B2 publication Critical patent/JP5017649B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】従操作者の動きが主操作者に戻ることなく、主操作者の動きを従操作者に十分教示できるようにする。
【解決手段】操作システム31で抽出した操作者Oの動作を、トレーナシステム51で再現する。トレーナシステム51は、操作者Oの動作を第1加速度応答として出力する仮想トレーナ57と、操作者O’の操作力に応じた第1等価加速度が加えられる可動可能なマスタシステム55と、環境E’からの反作用力に応じた第2等価加速度が加えられる可動可能なスレーブシステム56と、を備えている。さらに仮想トレーナ57,マスタシステム55,およびスレーブシステム56の間で、仮想トレーナ57に対して非同期にマスタシステム55とスレーブシステム56を加速度制御するマルチラテラル制御手段63を備えている。
【選択図】図7

Description

本発明は、例えば熟練者などのモーションの抽出,保存,再現を可能にするモーション習得システムおよびモーション習得方法に関する。
モーションコントロールは、ここ10年ほどの間に急速に発展してきた技術分野である。従来の閉環境下におけるモーションコントロールでは、外乱の抑圧に主眼が置かれていたが、最近はロボットの社会への普及や介護システムの開発などの、ヒューマンインタラクションを前提にした新しいモーションコントロールが望まれている。特に近年、ロボットによる低侵襲性外科医療や熟練者のスキル保存といった人間の高度な作業支援のためのスキル抽出技術の確立が求められている。
これまでに、画像情報に基づいて人間のスキルを抽出する研究が数多く行なわれている。また、環境との接触動作を繰り返し行なうようなタスクの抽出と再現には力制御に基づく動作が必要であり、仮想環境を用いて再現を行なうものや、位置と力のハイブリッド制御を用いたものなどが提案されている。しかしながら,現状では必ずしも満足のいく力制御系が計装されておらず、実現が容易ではない。それは、力覚情報は本来「作用・反作用の法則」に支配される双方向的情報であるにもかかわらず、現状の力制御系は所謂アクチュエータに印加する電流をコントロールして、その結果として生じる軸トルクを制御する単方向(Unilateral)性の力制御であり、アクチュエータに加えられる外力に応じて力覚フィードバックを行なうような双方向(Bilateral)性の情報を取り扱う基本的な手法を欠いているためである。
具体的な例として、例えば特許文献1には、ワークである皿内面に対しての筆記動作に関する筆記情報とワーク情報を、マスター機構部によって認識すると、コントローラがスレーブ機構のロボットアームとスレーブ側皿を動作制御して、前記筆記動作を再現させるシステムが開示されているが、これは位置情報だけでモーションの抽出と再現を行なおうとしているので、環境との接触・被接触の繰り返し動作を再現することが難しい。
環境との接触を伴う動作を実現するためには、ロバスト性を失うことなく制御剛性をゼロに制御する加速度制御が必要不可欠であることが知られている。こうした加速度制御に基づく制御系を導入すれば、人間の実際の力入力(アクチュエータにとっては外乱となる)を指令値としたロバストな力覚フィードバック制御が実現できる。さらに、マスタ・スレーブシステムに基づくバイラテラル力覚フィードバック制御系を構成することにより、「作用・反作用の法則」に支配される双方向的情報である力覚情報から、人間の作用力と環境からの反作用力とをそれぞれ抽出することが可能になる。
遠隔地の力覚情報を手元で感じるためのバイラテラル制御は、これまでに多くの手法が提案されてきた。しかし、従来のバイラテラル制御法ではマスタシステムに力制御,スレーブシステムに位置制御を行なう力帰還型をはじめとして、より多くのシステム間における力覚情報の共有制御にそのまま拡張することはできず、確立されているとは言い難い。そこで、本願の発明者らは、これまでに加速度制御に基づく新しいバイラテラル制御系を提案し、実世界における力覚情報の鋭敏な再現に成功している(特願2006−57632)。具体的には、マスタシステムとスレーブシステムとの間を加速度制御による制御を行なうことにより、力制御と位置制御の統合を容易に実現することができ、遠隔地における「作用・反作用の法則」の人工再現が可能になる。また、この加速度制御に基づく制御手法は無限次元のロボットシステムに拡張することが可能であるため、所謂マルチラテラル制御として一般化が可能である。
特開2006−62052号公報
しかし、上記マルチラテラル制御を実現したモーション習得システムでは、次のような問題を生じる。
マルチラテラル制御では、一人の主操作者(指導者)が遠隔地に存在する複数の従操作者(訓練者)に対し、マスタシステムとスレーブシステムとにより、環境との接触を伴う動作の教示が可能となる。しかし、従操作者の動作が主操作者に戻ってしまい、これが主操作者の動作を拘束することになるため、従操作者に対して十分な動作の教示が行なわれなくなる懸念を生じていた。
本発明は上記の問題点に鑑みなされたもので、その目的は、従操作者の動きが主操作者に戻ることなく、主操作者の動きを従操作者に十分教示することが可能なモーション習得装置およびモーション習得方法を提供することにある。
上記課題を解決するために、本発明のモーション習得システムは、主操作システムで抽出した主操作者の動作を、従操作システムで再現するモーション習得システムであって、前記従操作システムは、前記主操作者の動作を第1加速度応答として出力する仮想出力手段と、従操作者の操作力に応じた第1等価加速度が加えられる可動可能なマスタシステムと、前記従操作者の操作に伴う環境からの反作用力に応じた第2等価加速度が加えられる可動可能なスレーブシステムと、前記仮想出力手段,前記マスタシステム,および前記スレーブシステムの間で、前記仮想出力手段に対して非同期に前記マスタシステムと前記スレーブシステムを加速度制御するマルチラテラル制御手段と、を備えている。
この場合の前記マルチラテラル制御手段は、前記第1等価加速度と前記第2等価加速度との和が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出するものである。
また、前記マルチラテラル制御手段は、前記仮想出力手段からの第1加速度応答,前記マスタシステムからの第2加速度応答,および前記スレーブシステムからの第3加速度応答の間の各偏差が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出するものである。
好ましくは、前記マルチラテラル制御手段は、前記第1加速度応答と前記第2加速度応答との偏差に比例したアシスト力が前記マスタシステムに生じるように、前記マスタシステムへの加速度参照値を算出するものである。
また、前記アシスト力を記憶するアシスト力記憶手段をさらに備えるのが好ましい。
さらに好ましくは、前記仮想出力手段は、前記主操作システムで抽出した主操作者の動作情報を保存する記憶部と、この記憶部の前記動作情報から前記第1加速度応答を出力する出力部と、により構成される。
上記課題を解決するために、本発明のモーション習得方法は、主操作システムで抽出した主操作者の動作を、従操作システムで再現するモーション習得方法であって、前記従操作システムは、前記主操作者の動作を第1加速度応答として出力する仮想出力手段と、従操作者の操作力に応じた第1等価加速度が加えられる可動可能なマスタシステムと、前記従操作者の操作に伴う環境からの反作用力に応じた第2等価加速度が加えられる可動可能なスレーブシステムと、を備え、前記仮想出力手段,前記マスタシステム,および前記スレーブシステムの間で、前記仮想出力手段に対して非同期に前記マスタシステムと前記スレーブシステムを加速度制御するマルチラテラル制御を行なっている。
この場合の前記マルチラテラル制御では、前記第1等価加速度と前記第2等価加速度との和が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出する。
また、前記マルチラテラル制御では、前記仮想出力手段からの第1加速度応答,前記マスタシステムからの第2加速度応答,および前記スレーブシステムからの第3加速度応答の間の各偏差が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出する。
好ましくは、前記マルチラテラル制御では、前記第1加速度応答と前記第2加速度応答との偏差に比例したアシスト力が前記マスタシステムに生じるように、前記マスタシステムへの加速度参照値を算出する。
また、前記アシスト力をアシスト力記憶手段に記憶することが好ましい。
さらに、前記仮想出力手段において、前記主操作システムで抽出した主操作者の動作情報を保存し、その後で前記動作情報から前記第1加速度応答を出力するのが好ましい。
上記請求項1のシステムおよび請求項7の方法によれば、従操作システムにおいて、仮想出力手段,マスタシステム,およびスレーブシステムの間で、力覚・触覚情報を共有するマルチラテラル制御が行なわれる。そのため、主操作システムで操作した環境との接触を伴う主操作者の動きを、一乃至複数の従操作システムで同時に再現させながら、例えば従操作システムを利用する従操作者に対する訓練を行なうことが可能になる。また、従操作者が操作する従操作システムは、マスタシステムとスレーブシステムに基づくシステム構成を有することから、位置制御ベースのモーション習得システムやモーション習得方法では実現できなかった環境との接触を伴う動作の伝達を可能にできる。
さらに、従操作システムにおけるマルチラテラル制御は、主操作システムそのものではなく、主操作者の動作を第1加速度応答として出力する仮想出力手段と、マスタシステムおよびスレーブシステムとの間で行なわれ、しかも、仮想出力手段からの第1加速度応答は、マスタシステムおよびスレーブシステムへの加速度制御とは無関係なものとなる。したがって、従操作者の動作が主操作者に戻ることはなく、主操作者の動作を従操作者に十分教示することが可能になる。
上記請求項2のシステムおよび請求項8の方法によれば、従操作システムのマスタシステムとスレーブシステムによって、作用と反作用の人工的な再現を行なうことが可能になる。
上記請求項3のシステムおよび請求項9の方法によれば、主操作者の動作を、従操作システムの仮想出力手段からマスタシステムとスレーブシステムに正確に伝達することが可能になる。
上記請求項4のシステムおよび請求項10の方法によれば、主操作者と従操作者との間の動作に差が生じた場合に、その偏差に比例したアシスト力がマスタシステムに働くこととなり、従操作者のトレーニング効果を高めることができる。
上記請求項5のシステムおよび請求項11の方法によれば、従操作システムで発生したアシスト力の総和を記憶することで、例えば技術の習得度(スキルレベル)を定量的に評価することが可能になる。
上記請求項6のシステムおよび請求項12の方法によれば、仮想出力手段に複数の主操作者の動作情報をデータベース化して保存することができるので、従操作システムをいわゆるトレーニングシミュレータとして使用することも可能になる。
以下、添付図面に基づいて、本発明における好適な実施例を詳細に説明する。先ず図1に基づき、本発明のモーション習得システムが適用する外乱オブザーバを用いたロバスト加速度制御系の制御システムの一例を説明する。このような加速度制御系は、環境との接触を伴う動作を実現する上で必要不可欠なものである。なお、以下の説明で、図や数式以外では、1階の微分を「」,2階の微分を「・・」として便宜上あらわし、対応する記号の後に併記する。また、別に推定値をあらわす「^」を、対応する記号の前に併記する。
同図において、1は外乱力Fdisを推定する対象として設けられ、エネルギーを動力に変換する可動可能なアクチュエータであり、これはリニアモータなどの駆動源に電流値iを入力することにより、実際の位置xに動作するものである。アクチュエータ1には、実際の位置xを電気的な位置信号に変換して検出出力するために、例えばリニアエンコーダなどの位置センサ2が装着される。
一方、アクチュエータ1を制御する位置情報型の外乱オブザーバ3は、このアクチュエータ1への指令値である電流値iを入力すると共に、位置xを擬似微分器4で擬似微分した値、即ち応答速度値^xを入力して、これらの各値から外乱力の推定値を出力するもので、実際には擬似微分器4と共に、コンピュータのソフトウェアなどで構成される。擬似微分器4は、前記位置信号を推定速度信号に変換するもので、位置xに対し擬似微分を施すことで、ノイズに対する感度を抑制した変換出力を得ることができる。外乱オブザーバ3は、前記アクチュエータ1と等価的な逆モデルが組み込まれ、前記電流iを力単位の第1信号に変換し、この第1信号と前記擬似微分器4からの応答速度^θ を微分して得た第2信号とを比較した第3信号を出力する逆モデル部5と、この逆モデル部5での微分の際にカットオフ周波数を設定することにより形成され、前記逆モデル部5から低周波帯域の成分の第3信号を取り出し、これを推定外乱力^Fdisとして出力するローパスフィルタ6と、により構成される。また7は、前記推定外乱力^Fdisを、目標となる電流参照値Irefと同じ単位の補償電流値Icmpに逆変換する力−電流変換手段であり、この補償電流値Icmpと電流参照値Irefとを加算器8で加算することで、アクチュエータ1に入力する前記電流値(電流指令値)iを算出するようにしている。これにより、図1の各構成からなる装置では、外部からアクチュエータ1に加わる外乱力Fdisを除去することができる。なお、アクチュエータ1は位置信号を出力するものなので、便宜上2段の積分器(1/s)を通して、アクチュエータ1の出力(加速度x・・を2回積分して、実際の位置xを出力)としている。
図1に示す制御システムは、モータに作用する各種外乱(すなわち外乱力Fdis)の影響を、外乱オブザーバ3で除去することにより、ロバストな加速度制御系を構築している。ここでは、アクチュエータ1の駆動源として、リニアモータを採用する。モータに作用する外乱力Fdisは、次の式で表される。
ここで、図1および上記数1に記載されている各記号を説明すると、Irefは電流参照値であり、Kは推力定数であり、xはモータ位置であり、記号の後にある添え字は公称(ノミナル)値を意味する。また、上記数1の右辺第1項は慣性変動,第2項は推力定数の変動による推力リプル,第3項のFはクーロン摩擦力,第4項のDは粘性摩擦力,第5項のFextは外力を表している。
前記電流参照値Irefとモータ速度xが、遮断周波数gpdを有する擬似微分器4によって検出可能であるとき、数1で定義される外乱力Fdisは、次の式に示す外乱オブザーバ3により、一次のローパスフィルタ6を通して次のように推定される。
但し、上記数2において、g*disは次のように表わせる。
この推定外乱力F^disを、次の式のように力−電流変換手段7で補償電流値Icmpに変換してフィードバックすることにより、外乱に対してロバストな制御系を有する制御システムを構築することができる。
図2は、図1に示す制御システムを等価的に表わしたものである。図1における外乱オブザーバ3に基づくロバスト制御系は、図2に示すような加速度制御系になる。図2の要素11内に示された数式の感度関数より、ここでは外乱オブザーバ3の遮断周波数gdisを大きく設定することにより、外乱力Fdisの影響が除去されることが分かる。また、外乱オブザーバ3によりロバスト加速度制御系が実現されるばかりではなく、モータに加えられる外力Fextのみを力覚センサレスで推定することも可能になる。なお12は、アクチュエータ1において、加速度参照値x・・refと、要素11からの推定外乱力F^disを力−加速度変換手段13で変換した推定加速度との差が、加速度x・・として出力されることを等価的に表わした減算器である。こうして、アクチュエータ1を構成するモータに対するロバスト加速度制御系が実現できる。
ここで、力覚フィードバック制御は実世界における力覚情報の獲得と再現にあたって必要不可欠なものであり、実世界ハプティクスの基盤技術となっている。力覚フィードバックシステムにおいて、入力はモータに直接加えられる外力Fextであり、これを瞬時にフィードバックして倣い動作をすることが目的となる。
力覚フィードバック制御を実現するシステムは、アクチュエータ1に対して2重の外乱オブザーバループを備えることにより実現され、そのブロック線図は図3のように表される。
同図において、15はアクチュエータ1のモータで、ロバスト加速度制御を実現する内側の第1の外乱オブザーバ16は、前記図1に示す外乱オブザーバ3と、擬似微分器4と、力−電流変換手段7とにより構成される。また、外側の第2の外乱オブザーバ17は、同定した摩擦モデルなどを用いることにより、モータ15への外力のみを推定し(推定外力F^ext)、これを反転器18で反転させてフィードバックすることが可能になる。図3において、19は加速度参照値を導出する外力−加速度変換手段で、これは前記推定外力F^extと力覚フィードバックゲインCとの乗算にて算出される。また、20は電流参照値Irefを導出する加速度−電流変換手段で、これは前記加速度参照値x・・refを(M/Ktn)と乗算することで算出される。
推定外力F^extは、第2の外乱オブザーバ17により、1次のローパスフィルタを通して次式のように推定される。
図3のシステムは図4のように、等価的に簡略化して表現することが可能で
ある。ここで、加速度次元制御器23への入力は、加速度参照値x・・refと外力の等価加速度x・・extであり、外力の等価加速度x・・extから加速度応答値x・・refまでの伝達関数を1にすることで、加速度次元制御器23による力覚フィードバックが実現される。外力の等価加速度x・・extは次式のように、推定外力F^extをノミナル質量Mnで除することにより得られ、これは図4の力−加速度変換手段24で実現する。
このように、図4に示すような二重の外乱オブザーバ16,17によるループ構成を組み込むことによって、ロバストかつ制御剛性が0のセンサレス力覚フィードバック制御が構築でき、人間や環境への親和性の高い接触動作が実現可能となる。
次に、上述した好ましいシステム構成を組み込んだモーション習得システムの一実施例を具体的に説明する。この実施例では、遠隔教育により熟練者の動作を伝達し、トレーニングを行なうシステムについて詳述するが、操作を指示する操作システムと、操作システムからの指令を受けてその操作を遠隔地で再現する被操作システムとを、通信手段で接続したあらゆるモーション習得システムにも適用できる。
熟練者の動作の伝達にあたっては、アクチュエータ1が環境と接触する時の力覚情報をいかに抽出し、それを遠隔地で再現するかが問題となる。力覚情報は視覚情報や聴覚情報とは異なり、実世界における「作用・反作用の法則」に支配されるため、抽出と再現を実現するためには、マスタシステムとスレーブシステムとによるバイラテラル力覚フィードバックが必要となる。
図5は、こうしたバイラテラル力覚フィードバックによる「作用・反作用の法則」の人工的実現の概念を示した模式図である。同図では、操作者側に設置した主操作システムたる操作システム31が、マスタシステム32とスレーブシステム33とにより構成される。これにより、操作者(熟練者)Oの実世界における「作用・反作用の法則」は、マスタシステム31に加わる操作者Oの操作体Sへの作用力と、スレーブシステム32が受ける環境Eから操作体Sへの反作用力とに分離可能になり、熟練者の動作中における力覚情報の抽出や遠隔地での再現が可能になる。
図6は、熟練者すなわち熟練トレーナ(指導者)側の操作システム31における全制御系の構成を具体的に示したものである。同図において、熟練トレーナの操作システム31を構成するマスタシステム32とスレーブシステム33は、図4で説明したアクチュエータ1への加速度制御手段34,35をそれぞれ備えている。ここで、マスタシステム32への入力は、熟練トレーナの操作力の等価加速度x・・ 1m extと、加速度参照値x・・ 1m refであり、出力は加速度応答値x・・ 1mである。また、スレーブシステム33への入力は、環境Eからの反作用力の等価加速度x・・ 1s extと、加速度参照値x・・ 1s refであり、出力は加速度応答値x・・ 1sである。
操作システム31においてバイラテラル力覚フィードバックを実現するためには、熟練トレーナの操作力F1mと環境Eからの反作用力F1sの和を0に制御することと、マスタシステム32の位置x1mとスレーブシステム33の位置x1sとの偏差を0に制御することを、マスタシステム32とスレーブシステム33が同時に実現するように構成する必要がある。マスタシステム32とスレーブシステム33が、それぞれの加速度制御手段34,35により図4のように制御されている場合、バイラテラル力覚フィードバックの目標は以下の各数式のように表わすことができる。
上記数7の式の加算値x・・ 1c extを算出するために、操作システム31には、マスタシステム31に入力する等価加速度x・・ 1m extと、スレーブシステム32に入力する等価加速度x・・ 1s extとを加算する加算器36が設けられる。同様に、上記数8の式の偏差x・・ 1dを算出するために、操作システム31には、マスタシステム31から出力される加速度応答値x・・ 1mから、スレーブシステム32から出力される加速度応答値x・・ 1sを減算する減算器37が設けられる。
このように、数7や数8に示すバイラテラル力覚フィードバックの目標式は、マスタシステム32とスレーブシステム33との間の和のモードと差のモードで表現される。和のモードと差のモードは直行する仮想空間で表現されるため、加速度制御に基づいてそれぞれの空間で独立に制御系を設計することにより、上記の目標を満たすことが可能になる。なお、マスタシステム32に入力する等価加速度x・・ 1m extは、操作システム31に備えた力−加速度変換手段38を利用して、熟練トレーナの操作力F1mから次の式にて算出できる。
同様に、スレーブシステム33に入力する等価加速度x・・ 1s extは、操作システム31に備えた力−加速度変換手段39を利用して、環境Eからの反作用力F1sから次の式にて算出できる。
前記加算器36により得られた加算値x・・ 1c extは、熟練トレーナの操作力の等価加速度x・・ 1m extと、環境Eからの反作用力の等価加速度x・・ 1s extとの和であり、これはバイラテラル力覚フィードバック制御を実現する操作システム31の入力となる。加算値x・・ 1c extが0になるように制御することで、人工的に「作用・反作用の法則」を実現することができる。和のモードにおける加速度参照値x・・ 1c refは、加算値x・・ 1c extが0になるように制御する力サーボ制御器40により、前記加算値x・・ 1c extと力サーボCfとを乗算して、以下の式のように生成される。
一方、前記数8において、x・・ 1mはマスタシステム32の加速度応答値であり、x・・ 1sはスレーブシステム33の加速度応答値を表しており、記号「→」は2階積分をした位置偏差が0になることを示している。マスタシステム32とスレーブシステム33の加速度応答の偏差x・・ 1dは、以下の式のように差のモードにおいて位置レギュレータC(s)を構成する位置レギュレータ制御器41により、0に制御される。
ここで、x・・ 1d refは差のモードにおける加速度参照値を示す。実際の操作システム31は、和のモードにおける力サーボCfと、差のモードにおける位置レギュレータC(s)を同時に実現するために、数11および数12から生成されるそれぞれの加速度参照値x・・ 1c ref,x・・ 1d refを加速度次元で以下の式のように統合する。
上式において、左辺のx・・ 1m refはマスタシステム32に入力する加速度参照値であり、この値は図6に示すように、各加速度参照値x・・ 1c ref,x・・ 1d refを加算する加算器42と、この加算器42で得た値に1/2を乗算する演算器43とにより生成される。また、x・・ 1s refはスレーブシステム33に入力する加速度参照値であり、この値は図6に示すように、加速度参照値x・・ 1c refから加速度参照値x・・ 1d refを減算する減算器44と、この加算器44で得た値に1/2を乗算する演算器45とにより生成される。
前述のように、マスタシステム32およびスレーブシステム33の各アクチュエータ1は、加速度制御手段34,35によってそれぞれロバスト加速度制御されていることから、これらのマスタシステム32およびスレーブシステム33において加速度参照値x・・ 1m ref,x・・ 1s refが実現され、バイラテラル力覚フィードバックが可能になる。そして、このようなマスタシステム32およびスレーブシステム33への力応答や位置応答などを記憶手段(図示せず)に記憶して、熟練トレーナの動作を時系列のデータベースとして保存することが可能になる。
次に、本実施例が実現するマルチラテラル制御に基づく遠隔教育システムについて説明する。ここで提案する遠隔教育システムは、一人の熟練トレーナが遠隔地に存在する複数のトレーニ(訓練者)に対して、同時に「匠」の技術をトレーニングする機能を有する。こうした機能を実現するために、図6に示す操作システム31から、図示しない通信手段を介して、マルチラテラル制御により熟練トレーナの動作を各トレーニの被操作システムに伝達する。
一般的に、複数台のシステム間で力覚・触覚情報を共有するマルチラテラル制御は、遠隔地に存在する3台以上の複数のシステム間で「作用・反作用の法則」を人工的に実現するため、あたかも1台のシステムを複数の操作者が操作する感覚を再現することが可能である。しかしながら、一人の熟練トレーナが多くのトレーニをトレーニングする際には、マルチラテラル制御をそのまま適用すると熟練トレーナの操作による信号が相対的に弱まり、動作の伝達が困難になることが明らかになっている。そこで、本実施例では図7に示すような新しい構成のマルチラテラル制御を提案することにより、遠隔教育システムを実現する。
図7で提案するシステムにおいて、従操作システムであるトレーナシステム51は、前述した操作システム31と同じ構成を有するので、ここでは詳しく説明しない。熟練トレーナの力覚は、マスタシステム32とスレーブシステム33との間のバイラテラル力覚フィードバックにより、「作用・反作用の法則」を人工的に再現しつつ抽出される。一方、操作再現システムに相当する各トレーニシステム52〜52には、トレーナの操作システム31によって抽出された動作をもとに、仮想トレーナ53がそれぞれ設けられている。また、N台のトレーニシステム52〜52は、トレーナシステム51と同様のマスタシステム55とスレーブシステム56がそれぞれ設けられる。これにより、操作者(訓練者)O’の実世界における「作用・反作用の法則」は、マスタシステム55に加わる操作者O’の操作体S’への作用力と、スレーブシステム56が受ける環境E’から操作体S’への反作用力とに分離可能になり、操作者O’の動作中における力覚情報の抽出が可能になる。
図7では、トレーニシステム52〜52を構成するマスタシステム55とスレーブシステム56、および前記仮想トレーナ53の3台のシステム間で、マルチラテラル制御を構成することにより,トレーニシステム52〜52の数と関係なく、熟練トレーナが各トレーニに対して,あたかも1対1で動作のトレーニングをする状況を再現することが可能になる。
図8は、図7に示すi番目のトレーニシステム52における全制御系の構成を示したものである。トレーニシステム52は前述のように、操作システム31のマスタシステム32からの加速度応答値x・・ 1mを出力する仮想出力手段としての仮想トレーナ57と、加速度制御手段61を備えたマスタシステム55と、加速度制御システム62を備えたマスタシステム56とを、以下に説明するマルチラテラル制御手段63により加速度次元で相互に制御する構成を有している。マスタシステム55およびスレーブシステム56の各アクチュエータ1は、加速度制御手段61,62によってそれぞれロバスト加速度制御されるが、これらの加速度制御手段61,62は、図4で説明した通りのものである。マスタシステム55への入力は、トレーニの操作力の等価加速度x・・ im extと、マルチラテラル制御手段63で得られる加速度参照値x・・ im refであり、出力は加速度応答値x・・ imである。また、スレーブシステム56への入力は、環境E’からの反作用力の等価加速度x・・ is extと、加速度参照値x・・ is refであり、出力は加速度応答値x・・ isである。
マスタシステム55への等価加速度x・・ im extは、力−加速度変換手段65を利用して、トレーニの操作力Fimからモータ質量のノミナル値Mを除算することで算出できる。同様に、スレーブシステム56への等価加速度x・・ is extは、力−加速度変換手段66を利用して、環境E’からの反作用力Fisからモータ質量のノミナル値Mを除算することで算出できる。
ここで、トレーナシステム51を1番目のシステムとし、トレーニシステム52〜52を2番目以降のシステムと考えると、各トレーニシステム52〜52は、熟練トレーナの操作システム31と同様に、マスタシステム55とスレーブシステム56にそれぞれ備えた加速度制御手段61,62により、加速度制御に基づく制御系を構成している。この加速度制御に基づき、各トレーニシステム52〜52に導入するためのマルチラテラル制御の目標は以下の各式のように表される。
まず、数14において、i(i=2〜N)番目の各トレーニシステム52におけるトレーニの操作力Fimの等価加速度x・・ im extと、環境E’からの反作用力Fisの等価加速度x・・ is extとの和x・・ ic extを0に制御することで、「作用・反作用の法則」の人工的実現が可能になる。これは、前記マルチラテラル制御手段63に、マスタシステム55への等価加速度x・・ im extと、スレーブシステム56への等価加速度x・・ is extとを加算する加算器68と、この加算器68で得られた加算値x・・ ic extが0になるような加速度参照値x・・ ic refを出力する和モード制御手段69と、による第1ループを備えることで達成される。ここで、和モードにおける加速度参照値x・・ ic refは、力サーボ制御器69により、前記加算値x・・ ic extと力サーボCfとを乗算して、以下の式のように生成される。
また、上記数15〜数17の各式において、x・・ imは、i(i=2〜N)番目の各トレーニシステム52におけるマスタシステム55の加速度応答値であり、またx・・ isは、i(i=2〜N)番目のトレーニシステム52におけるスレーブシステム56の加速度応答値である。ここでは、トレーニシステム52を構成する3台のマルチラテラルシステム(すなわち、マスタシステム55,スレーブシステム56,仮想トレーナ57)の間で、それぞれの加速度応答の偏差x・・ id1,x・・ id2,x・・ id3を0に制御することで、熟練トレーナの動作の伝達が可能になる。
こうした熟練トレーナの動作伝達を可能にするために、図8に示すマルチラテラル制御手段63は、仮想トレーナ57からの加速度応答値x・・ 1mからマスタシステム55からの加速度応答値x・・ imを差し引いた偏差x・・ id1を算出する減算器71と、この偏差x・・ id1が位置次元で0になるような加速度参照値x・・ id1 refを算出する位置レギュレータ制御器72とによる第2ループを備えると共に、マスタシステム55からの加速度応答値x・・ imからスレーブシステム56からの加速度応答値x・・ isを差し引いた偏差x・・ id2を算出する減算器73と、この偏差x・・ id2が位置次元で0になるような加速度参照値x・・ id2 refを算出する位置レギュレータ制御器74とによる第3ループを備えている。つまり、マルチラテラルシステムにおける加速度応答の各偏差x・・ id1,x・・ id2は、以下の式のように、差モードにおいて位置レギュレータC(s)を有する位置レギュレータ制御器72,74を備えることにより、何れも0に制御される。
ここでx・・ id1 refは、位置レギュレータ制御器72からの差モードにおける加速度応答値であり、またx・・ id2 refは、位置レギュレータ制御器74からの差モードにおける加速度応答値である。3台のマルチラテラルシステム間の差モードは、そのうち2つの差モードを制御することで残りの1つの差モードが従属的に決定するため、位置レギュレータ制御器72,74を含むループは2つ設ければ十分である。
バイラテラル力覚フィードバックの場合と同様に、ここでのマルチラテラル制御手段63も、和モードにおける力サーボCfと、差のモードにおける位置レギュレータC(s)とにより生成されるそれぞれの加速度参照値x・・ id1 ref,x・・ id2 refを、以下の式のように加速度次元で統合し、各トレーニの操作システムであるマスタシステム55への加速度参照値x・・ im refおよびスレーブシステム56への加速度参照値x・・ is refを生成するように構成される。
上式において、マスタシステム55への加速度参照値x・・ im refは、力サーボ制御器69からの加速度参照値x・・ 1c refから、位置レギュレータ制御器72からの加速度参照値x・・ 1d1 refを減算する減算器75と、この加算器42で得た値に1/2を乗算する演算器76とにより生成される。また、スレーブシステム56への加速度参照値x・・ is refは、力サーボ制御器69からの加速度参照値x・・ 1c refから、位置レギュレータ制御器74からの加速度参照値x・・ 1d2 refを減算する減算器77と、この加算器42で得た値に1/2を乗算する演算器78とにより生成される。
このように、図8に示すトレーニシステム52は、仮想トレーナ57を含むマルチラテラルシステム間を、マルチラテラル制御手段63で制御することによって、オンラインで遠隔地に存在する複数のトレーニに対して、トレーニングを同時に行なうことが可能になる。さらに、データベース化した熟練トレーナの動作を保存し、これを仮想トレーナ57としてトレーニシステム52で使用してもよい。そうすることで、操作システム31との間でオンラインの通信手段をわざわざ利用しなくても、図8に示すトレーニシステム52をトレーニングシミュレータとして使用することができる。
さらに重要な点は、図8に示すマルチラテラル制御手段63は、トレーニの動作とは非干渉に、仮想トレーナ57から一方的に加速度参照値x・・ 1mが出力されるように、すなわち、トレーニの操作力Fimの等価加速度x・・ im extや、そのときの環境E’からの反作用力Fisの等価加速度x・・ is extが、仮想トレーナ57に出力されないように、構成されているということである。このようにすれば、トレーニがトレーニシステム52のマスタシステム55をどのような力で操作した場合であっても、トレーナの動作がトレーニの動作によって支配されることなく、そのためトレーニからの力の影響を受けずに、一人の熟練トレーナが一またはそれ以上のトレーニに対して同時にトレーニングを行なうことが可能になる。
さらに、従来の位置制御ベースでのトレーニングでは、熟練トレーナの操作システムおよびトレーニの操作システムにおける全ての位置応答が一致するために、トレーニの操作とは無関係に強制的に動作を同期させることにつながり、トレーニング効果が高いとはいえなかった。本実施例で提案するシステムでは、マルチラテラル制御手段63によるマルチラテラル制御を導入することにより、熟練トレーナの動作とトレーニの動作との間で差が生じた場合に、その偏差に比例したアシスト力が、上記第2ループでマスタシステム55に対して働く。そのため、トレーニの操作とは無関係に強制的に動作を同期させることがなく、トレーニング効果を向上できる。
図9は、上記実施例で提案したマルチラテラル制御に基づく遠隔教育システムの有効性を確認するための実験装置の一例を示している。この図に示すように、実験用の遠隔教育システムは、1台の熟練トレーナの操作システム31と、複数台(図では2台)のトレーニの操作システムすなわちトレーニシステム52,52とにより構成される。また、操作システム31は、ローカルでマスタシステム32およびスレーブシステム33に基づくシステム構成を有していると共に、トレーニシステム52,52も同様に、ローカルでマスタシステム55およびスレーブシステム56に基づくシステム構成を有している。
実験装置のアクチュエータ1はそれぞれリニアモータ81により構成されており、人間の指で行なう操作に対応している。操作者O,O’のリニアモータ81への操作力と、それによる環境E,E’からリニアモータ81への反作用力は、何れも図3で示すような外乱オブザーバ16,17により、力覚センサレスで推定を行なうことができる。また、操作システム31を構成するマスタシステム32およびスレーブシステム33は、それぞれアクチュエータ1の位置検出手段としてのリニアエンコーダ82を備えていると共に、トレーニシステム52,52のマスタシステム55およびスレーブシステム56にも、それぞれアクチュエータ1の位置検出手段としてのリニアエンコーダ83を備えている。これらのリニアエンコーダ82,83からの検出信号により、上述した位置,速度,加速度の応答値を得ることができる。
センサレス力覚フィードバックを実現するための外乱オブザーバ16,17に用いる摩擦同定の精度は、力覚の推定精度に強く影響するために、推定誤差を最小にするためには機構的な摩擦を少なくすることが重要である。ここでは、摩擦の影響を機構的に除去することが可能なロッド型のリニアモータ81として、例えばジイエムシーヒルストン社のシャフトモータを用いた。リニアアクチュエータの詳細を表1に示す。また、アクチュエータ1以外の各部を制御プログラムで構成し、そのサンプリングタイムを100μsに設定している。
上記実験装置では、操作システム31のマスタシステム32を操作する熟練トレーナが、環境Eへの接触動作を各トレーニシステム52,52に伝達させる実験を行った。熟練トレーナの操作システム31とトレーニシステム52,52の初期位置は、それぞれのスレーブシステム33,56のアクチュエータ1を、環境E,E’と接触した状態に設置することで一致させている。トレーニングを行なう動作は以下の通りである。
(1)実験開始から1秒後に、3秒間フリーモーション(環境E,E’と接触しない動作)を3往復行なう。
(2)実験開始から4秒後に、2秒間環境E,E’への押し動作を行なう。
(3)実験開始から6秒後に、環境E,E’への接触動作からフリーモーションへと移行する。
また、実験で用いた制御パラメータを表2に示す。
図10a〜図10dは実験結果を示したもので、図10aは、熟練トレーナの操作システム31におけるマスタシステム32とスレーブシステム33の各力応答を示し、また図10bは、同じマスタシステム32とスレーブシステム33の各位置応答を示している。図10cは、トレーニシステム52のマスタシステム55,スレーブシステム56および仮想トレーナ57の各力応答を示し、また図10dは、同じマスタシステム55,スレーブシステム56および仮想トレーナ57の各位置応答を示している。
図10aおよび図10bでは、操作システム31がマスタシステム32とスレーブシステム33に基づく構成となっているため、操作者Oの作用力と環境Eからの反作用力の分離が可能になり、環境Eとの接触を含む動作が正確に抽出できていることが分かる。さらに、マスタシステム32で抽出される操作者Oの作用力と、スレーブシステム33で抽出される環境Eからの反作用力の和はほぼ0であり、マスタシステム32とスレーブシステム33との間の位置応答も一致していることから、遠隔地における「作用・反作用の法則」が良好に再現できていることが確認できる。
一方、図10cおよび図10dにより、トレーニシステム52においてもバイラテラル力覚フィードバックが実現できていることが分かる。また、図10dに示すように、実験開始後4秒付近に、トレーニである操作者O’の位置応答と仮想トレーナ57の位置応答が偏差を持っているが、これは差のモードにおける位置レギュレータ制御器72により、これを修正しようとするアシスト力がマスタシステム55に対し働いていることが、図10cから確認できる。このアシスト力は、スレーブシステム56が環境E’と接触したときの反作用力がフィードバックされているものではないため、図10cの4秒付近を見ると、スレーブシステム56の力応答は0になっている。また、6秒後から9秒後にかけて生じている熟練トレーナ(操作者O)とトレーニ(操作者O’)の動作の偏差についても同様に、仮想トレーナ57の動作に対して、位置レギュレータ制御器72が仮想バネ・仮想ダンパとして作用することでアシスト力が発生し、トレーニの動作を修正していることが分かる。
このように、本実施例で提案する遠隔教育システムにより、環境E,E’との接触を含む動作について、各トレーニを最適にトレーニングできることを確認した。
以上のように本実施例では、操作システム31で抽出した主操作者すなわち操作者Oの動作を、トレーニシステム52で再現するモーション習得システムやモーション習得方法であって、トレーニシステム52は、操作者Oの動作を第1加速度応答x・・ 1mとして出力する仮想トレーナ57と、従操作者である操作者O’の操作力に応じた第1等価加速度x・・ im extが加えられる可動可能なマスタシステム55と、操作者O’の操作に伴う環境E’からの反作用力に応じた第2等価加速度x・・ is extが加えられる可動可能なスレーブシステム56と、を備えており、さらに仮想トレーナ57,マスタシステム55,およびスレーブシステム56の間で、仮想トレーナ57に対して非同期にマスタシステム55とスレーブシステム56を加速度制御するマルチラテラル制御手段63を備えている。
この場合、前記マルチラテラル制御手段63に代えて、仮想トレーナ57,マスタシステム55,およびスレーブシステム56の間で、仮想トレーナ57に対して非同期にマスタシステム55とスレーブシステム56を加速度制御するマルチラテラル制御を行なう方法を採用してもよい。
こうすると、トレーニシステム52において、仮想トレーナ57,マスタシステム55,およびスレーブシステム56の間で、力覚・触覚情報を共有するマルチラテラル制御が行なわれる。そのため、操作システム31で操作した操作者Oの動きを、一乃至複数のトレーニシステム52で同時に再現させながら、例えばトレーニシステム52を利用する操作者O’に対して、「匠」の技術を伝承するための遠隔教育訓練を行なうことが可能になる。また、操作者O’が操作するトレーニシステム52は、マスタシステム55とスレーブシステム56に基づくシステム構成を有することから、位置制御ベースのモーション習得システムでは実現できなかった環境E’との接触を伴う動作の伝達を可能にできる。
さらに、トレーニシステム52におけるマルチラテラル制御は、主操作システムそのものではなく、操作者Oの動作を第1加速度応答x・・ 1mとして出力する仮想トレーナ57と、マスタシステム55およびスレーブシステム56との間で行なわれ、しかも、仮想トレーナ57からの第1加速度応答x・・ 1mは、マスタシステム55およびスレーブシステム56への加速度制御とは無関係なものとなる。したがって、操作者O’の動作が操作者Oに戻ることはなく、操作者Oの動作をトレーニシステム52側の操作者O’に十分教示することが可能になる。
また、本実施例のマルチラテラル制御手段63若しくはマルチラテラル制御では、第1等価加速度x・・ im extと第2等価加速度x・・ is extとの和が0になるように、マスタシステム55への加速度参照値x・・ im refとスレーブシステム56への加速度参照値x・・ is refを算出している。
こうすると、トレーニシステム52のマスタシステム55とスレーブシステム56によって、作用と反作用の人工的な再現を行なうことが可能になる。
また、本実施例のマルチラテラル制御手段63若しくはマルチラテラル制御では、仮想トレーナ57からの第1加速度応答x・・ 1m,前記マスタシステム55からの第2加速度応答x・・ im,およびスレーブシステム56からの第3加速度応答x・・ isの間の各偏差が0になるように、マスタシステム55への加速度参照値x・・ im refとスレーブシステム56への加速度参照値x・・ is refを算出している。
こうすると、操作者Oの動作を、トレーニシステム52の仮想トレーナ57からマスタシステム55とスレーブシステム56に正確に伝達することが可能になる。
また、この場合のマルチラテラル制御手段63若しくはマルチラテラル制御では、第1加速度応答x・・ 1mと第2加速度応答x・・ imとの偏差に比例したアシスト力がマスタシステム55に生じるように、当該マスタシステム55への加速度参照値x・・ im refを算出している。
こうすると、操作者O,O’との間の動作に差が生じた場合に、その偏差に比例したアシスト力がマスタシステム55に働くこととなり、操作者O’のトレーニング効果を高めることができる。
さらに図示しないが、前記アシスト力を記憶するアシスト力記憶手段をさらに備えた構成や、前記アシスト力をアシスト力記憶手段に記憶する方法を採用してもよい。トレーニシステム52で発生したアシスト力の総和を記憶することで、例えば技術の習得度(スキルレベル)を定量的に評価することが可能になる。
また図示しないが、仮想トレーナ57が、操作システム31で抽出した操作者Oの動作情報を保存する記憶部と、この記憶部に記憶した動作情報から第1加速度応答x・・ 1mを出力する出力部と、を備えた構成や、仮想トレーナ57において、操作システム31で抽出した操作者Oの動作情報を保存し、その後でこの動作情報から第1加速度応答x・・ 1mを出力する方法を採用してもよい。
こうすると、仮想トレーナ57に複数の操作者Oの動作情報をデータベース化して保存することができるので、トレーニシステム52をいわゆるトレーニングシミュレータとして使用することも可能になる。
なお、本発明は上記実施例に限定されるものではなく、本発明の要旨の範囲において種々の変形実施が可能である。
本発明で提案するモーション習得システムは、熟練トレーナおよびトレーニが操作するシステムに止まらず、遠隔操作が行なわれるあらゆるシステムに適用が可能であるが、それぞれのローカルでマスタ・スレーブに基づくシステム構成をとることにより、これまでの位置制御ベースのシステムでは実現できなかった環境との接触を伴うモーションの伝達が可能になった。また、主操作者である熟練トレーナの動作と、従操作者であるトレーニの動作に差が生じた際には、動作を修正するためのアシスト力が発生するため、そのトレーニング効果は飛躍的に向上する。さらに、このような力覚情報に基づく遠隔教育は、従来の画像・音声ベースのものよりも教育効果の向上が見込めるばかりでなく、熟練トレーナの動作を力覚情報と統合してディジタルデータベース化することが可能であるため、熟練技術保存の問題に対して画期的な解決法に成り得る。本発明に基づく生産技術や高度医療の発展が見込めるばかりでなく、放送によるスキル伝達をも可能にするなど、触覚メディアを扱うための基盤技術となりうる。
本発明の一実施例におけるモーション習得システムに適用可能な、ロボットシステムの一例をあらわしたブロック線図である。 同上、図1と等価な外乱オブザーバによる加速度制御系システムのブロック線図である。 同上、力覚フィードバック制御を実現するシステムの一例を示すブロック線図である。 同上、図3と等価なシステムのブロック線図である。 同上、バイラテラル力覚フィードバックによる「作用・反作用の法則」の人工的実現の概念を示した説明図である。 同上、熟練トレーナ側の操作システムにおける全制御系の構成を具体的に示すブロック線図である。 同上、マルチラテラル制御に基づく遠隔教育システムの概念的構成を示す説明図である。 同上、各トレーニの操作システムにおける全制御系の構成を具体的に示すブロック線図である。 同上、マルチラテラル制御に基づく遠隔教育システムの有効性を確認するための実験装置を示す説明図である。 図9の実験装置による実験結果であって、熟練トレーナの操作システムにおける力応答を示すグラフである。 図9の実験装置による実験結果であって、熟練トレーナの操作システムにおける位置応答を示すグラフである。 図9の実験装置による実験結果であって、トレーニシステムにおける力応答を示すグラフである。 図9の実験装置による実験結果であって、トレーニシステムにおける位置応答を示すグラフである。
符号の説明
31 操作システム(主操作システム)
51 トレーナシステム(主操作システム)
52トレーニシステム(従操作システム)
55 マスタシステム
56 スレーブシステム
57 仮想トレーナ(仮想出力手段)
63 マルチラテラル制御手段

Claims (12)

  1. 主操作システムで抽出した主操作者の動作を、従操作システムで再現するモーション習得システムであって、
    前記従操作システムは、前記主操作者の動作を第1加速度応答として出力する仮想出力手段と、
    従操作者の操作力に応じた第1等価加速度が加えられる可動可能なマスタシステムと、
    前記従操作者の操作に伴う環境からの反作用力に応じた第2等価加速度が加えられる可動可能なスレーブシステムと、
    前記仮想出力手段,前記マスタシステム,および前記スレーブシステムの間で、前記仮想出力手段に対して非同期に前記マスタシステムと前記スレーブシステムを加速度制御するマルチラテラル制御手段と、を備えたことを特徴とするモーション習得システム。
  2. 前記マルチラテラル制御手段は、前記第1等価加速度と前記第2等価加速度との和が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出するものであることを特徴とする請求項1記載のモーション習得システム。
  3. 前記マルチラテラル制御手段は、前記仮想出力手段からの第1加速度応答,前記マスタシステムからの第2加速度応答,および前記スレーブシステムからの第3加速度応答の間の各偏差が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出するものであることを特徴とする請求項1または2記載のモーション習得システム。
  4. 前記マルチラテラル制御手段は、前記第1加速度応答と前記第2加速度応答との偏差に比例したアシスト力が前記マスタシステムに生じるように、前記マスタシステムへの加速度参照値を算出するものであることを特徴とする請求項3記載のモーション習得システム。
  5. 前記アシスト力を記憶するアシスト力記憶手段をさらに備えたことを特徴とする請求項4記載のモーション習得システム。
  6. 前記仮想出力手段は、前記主操作システムで抽出した主操作者の動作情報を保存する記憶部と、この記憶部の前記動作情報から前記第1加速度応答を出力する出力部と、により構成されることを特徴とする請求項1〜5の何れか一つに記載のモーション習得システム。
  7. 主操作システムで抽出した主操作者の動作を、従操作システムで再現するモーション習得方法であって、
    前記従操作システムは、前記主操作者の動作を第1加速度応答として出力する仮想出力手段と、
    従操作者の操作力に応じた第1等価加速度が加えられる可動可能なマスタシステムと、
    前記従操作者の操作に伴う環境からの反作用力に応じた第2等価加速度が加えられる可動可能なスレーブシステムと、を備え、
    前記仮想出力手段,前記マスタシステム,および前記スレーブシステムの間で、前記仮想出力手段に対して非同期に前記マスタシステムと前記スレーブシステムを加速度制御するマルチラテラル制御を行なうことを特徴とするモーション習得方法。
  8. 前記マルチラテラル制御では、前記第1等価加速度と前記第2等価加速度との和が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出することを特徴とする請求項7記載のモーション習得方法。
  9. 前記マルチラテラル制御では、前記仮想出力手段からの第1加速度応答,前記マスタシステムからの第2加速度応答,および前記スレーブシステムからの第3加速度応答の間の各偏差が0になるように、前記マスタシステムおよび前記スレーブシステムへの加速度参照値を算出することを特徴とする請求項7または8記載のモーション習得システム。
  10. 前記マルチラテラル制御では、前記第1加速度応答と前記第2加速度応答との偏差に比例したアシスト力が前記マスタシステムに生じるように、前記マスタシステムへの加速度参照値を算出することを特徴とする請求項9記載のモーション習得方法。
  11. 前記アシスト力をアシスト力記憶手段に記憶することを特徴とする請求項10記載のモーション習得方法。
  12. 前記仮想出力手段において、前記主操作システムで抽出した主操作者の動作情報を保存し、その後で前記動作情報から前記第1加速度応答を出力することを特徴とする請求項7〜11の何れか一つに記載のモーション習得方法。
JP2007053868A 2007-03-05 2007-03-05 モーション習得システムおよびモーション習得方法 Active JP5017649B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007053868A JP5017649B2 (ja) 2007-03-05 2007-03-05 モーション習得システムおよびモーション習得方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007053868A JP5017649B2 (ja) 2007-03-05 2007-03-05 モーション習得システムおよびモーション習得方法

Publications (2)

Publication Number Publication Date
JP2008213092A true JP2008213092A (ja) 2008-09-18
JP5017649B2 JP5017649B2 (ja) 2012-09-05

Family

ID=39833750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007053868A Active JP5017649B2 (ja) 2007-03-05 2007-03-05 モーション習得システムおよびモーション習得方法

Country Status (1)

Country Link
JP (1) JP5017649B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271880A (ja) * 2009-05-21 2010-12-02 Keio Gijuku 加工力監視システム及びをそれを用いた工作機械
JP2011164741A (ja) * 2010-02-05 2011-08-25 Keio Gijuku 受動アクチュエータ制御システム
JP2019067225A (ja) * 2017-10-03 2019-04-25 日本放送協会 遠隔力覚誘導システム、マスター装置及びスレーブ装置、並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002127058A (ja) * 2000-10-26 2002-05-08 Sanyo Electric Co Ltd 訓練ロボット、訓練ロボットシステムおよび訓練ロボットの制御方法
JP2003275975A (ja) * 2002-03-22 2003-09-30 Ricoh Co Ltd マスタスレーブ情報伝達システムおよび方法
JP2007229897A (ja) * 2006-03-03 2007-09-13 Nagaoka Univ Of Technology 触覚制御方法および触覚制御装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002127058A (ja) * 2000-10-26 2002-05-08 Sanyo Electric Co Ltd 訓練ロボット、訓練ロボットシステムおよび訓練ロボットの制御方法
JP2003275975A (ja) * 2002-03-22 2003-09-30 Ricoh Co Ltd マスタスレーブ情報伝達システムおよび方法
JP2007229897A (ja) * 2006-03-03 2007-09-13 Nagaoka Univ Of Technology 触覚制御方法および触覚制御装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271880A (ja) * 2009-05-21 2010-12-02 Keio Gijuku 加工力監視システム及びをそれを用いた工作機械
JP2011164741A (ja) * 2010-02-05 2011-08-25 Keio Gijuku 受動アクチュエータ制御システム
JP2019067225A (ja) * 2017-10-03 2019-04-25 日本放送協会 遠隔力覚誘導システム、マスター装置及びスレーブ装置、並びにプログラム
JP7007852B2 (ja) 2017-10-03 2022-01-25 日本放送協会 遠隔力覚誘導システム、マスター装置及びスレーブ装置、並びにプログラム

Also Published As

Publication number Publication date
JP5017649B2 (ja) 2012-09-05

Similar Documents

Publication Publication Date Title
Huijun et al. Virtual-environment modeling and correction for force-reflecting teleoperation with time delay
Tsunashima et al. Spatiotemporal coupler: Storage and reproduction of human finger motions
van der Linde et al. HapticMaster–a generic force controlled robot for human interaction
Katsura et al. A realization of haptic training system by multilateral control
JP2008238396A (ja) ロボットのモーションの発生及び制御のための装置ならびに方法
Ryu et al. A novel adaptive bilateral control scheme using similar closed‐loop dynamic characteristics of master/slave manipulators
Katsura et al. A realization of multilateral force feedback control for cooperative motion
Zeng et al. Encoding multiple sensor data for robotic learning skills from multimodal demonstration
Lin Design of an intelligent robotic precise assembly system for rapid teaching and admittance control
Katsura et al. Real-world haptics: Reproduction of human motion
Nagatsu et al. Design strategies for motion reproduction based on environmental disturbance compensation
Nozaki et al. Impedance field expression of bilateral control for reducing data traffic in haptic transmission
JP5017649B2 (ja) モーション習得システムおよびモーション習得方法
JP4876246B2 (ja) 触覚制御方法および触覚制御装置
JP2009279699A (ja) 位置・力再現方法および位置・力再現装置
JP2019202404A (ja) ロボットシステム及びロボット制御方法
Nozaki et al. Motion-copying system with variable impedance based on scaled bilateral control in one-degree-of-freedom robot
Kuchenbecker et al. Improving telerobotic touch via high-frequency acceleration matching
JP4701400B2 (ja) モーション習得システムおよびその制御方法
Katsura et al. Acquisition and analysis of finger motions by skill preservation system
Licona R et al. Collaborative hands-on training on haptic simulators
Honjo et al. Multi-degree-of-freedom motion-copying system considering variation in friction
Tzafestas Virtual and mixed reality in telerobotics: A survey
Shimono et al. A realization of haptic skill database by bilateral motion control
WO2021172572A1 (ja) 習得支援システム、習得支援方法、及び習得支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110822

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120514

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150