JP2017154193A - ロボット - Google Patents
ロボット Download PDFInfo
- Publication number
- JP2017154193A JP2017154193A JP2016037577A JP2016037577A JP2017154193A JP 2017154193 A JP2017154193 A JP 2017154193A JP 2016037577 A JP2016037577 A JP 2016037577A JP 2016037577 A JP2016037577 A JP 2016037577A JP 2017154193 A JP2017154193 A JP 2017154193A
- Authority
- JP
- Japan
- Prior art keywords
- door knob
- door
- robot
- robot arm
- passive model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
Abstract
【課題】ドアノブの動きに、ロボットアームによるドアノブの操作方向を応答性良く追従させること。
【解決手段】ロボット1は、ドア2のドアノブ21をロボットハンド121によって把持可能なロボットアーム12と、ロボットアーム12に加わる力を検出する力センサ13と、ドアノブ21の初期操作方向を記憶する記憶部141と、ドアノブ21の座標系における原点と一致する中心位置から、ドアノブ21の初期操作方向の直線上の任意の終端部まで伸びる形状である、仮想的な受動モデルMを設置する受動モデル設置部142と、受動モデルMの中心位置と終端部を結ぶ直線に沿ってロボットアーム12を操作する第1処理と、力センサ13によって検出された力に基づいて受動モデルMの姿勢を更新する第2処理と、を繰り返す制御部143と、を備える。
【選択図】図1
【解決手段】ロボット1は、ドア2のドアノブ21をロボットハンド121によって把持可能なロボットアーム12と、ロボットアーム12に加わる力を検出する力センサ13と、ドアノブ21の初期操作方向を記憶する記憶部141と、ドアノブ21の座標系における原点と一致する中心位置から、ドアノブ21の初期操作方向の直線上の任意の終端部まで伸びる形状である、仮想的な受動モデルMを設置する受動モデル設置部142と、受動モデルMの中心位置と終端部を結ぶ直線に沿ってロボットアーム12を操作する第1処理と、力センサ13によって検出された力に基づいて受動モデルMの姿勢を更新する第2処理と、を繰り返す制御部143と、を備える。
【選択図】図1
Description
本発明は、ロボットに関し、特に、ドアを開閉するロボットに関する。
近年、ドアを開閉するロボットが提案されている。例えば、特許文献1には、開閉方向が未知であるドアを開閉するロボットが開示されている。特許文献1に開示されたロボットは、ロボットアームの先端に設けられたロボットハンドでドアノブを把持した状態で、ロボットハンドを任意の方向に移動するよう制御する。そして、そのときにロボットアームに加わる力を検出し、検出した力に基づいて、ドアの開く方向を判断する。
ところで、ロボットが開閉するドアが、回転させて開閉するタイプのドアである場合、ドアが開くにつれて、ロボットアームによるドアノブの操作方向が変わる。そのため、倣い制御によって、ドアの開閉状態に応じて、ロボットアームによるドアノブの操作方向を制御することが考えられる。
しかし、実際には、ロボットハンドとドアノブとの間には滑りがあるため、ドアが開くにつれて、ドアノブの動きに、ロボットアームによるドアノブの操作方向が追従できなくなり、ドアの開き角度と、ロボットアームによるドアノブの操作角度(引く角度)と、が乖離していき、ドアを開ききることができないことがある。
本発明は、上記を鑑みなされたものであって、ドアノブの動きに、ロボットアームによるドアノブの操作方向を応答性良く追従させることができるロボットを提供する。
本発明の一態様に係るロボットによれば、
ドアの取っ手を把持部によって把持可能なアームと、
前記アームに加わる力を検出する力検出部と、
前記取っ手の初期操作方向を記憶する記憶部と、
前記取っ手の座標系における原点と一致する中心位置から、前記取っ手の初期操作方向の直線上の任意の終端部まで伸びる形状である、仮想的な受動モデルを設置する受動モデル設置部と、
前記受動モデルの前記中心位置と前記終端部を結ぶ直線に沿って前記アームを操作する第1処理と、前記力検出部によって検出された力に基づいて前記受動モデルの姿勢を更新する第2処理と、を繰り返す制御部と、を備える。
ドアの取っ手を把持部によって把持可能なアームと、
前記アームに加わる力を検出する力検出部と、
前記取っ手の初期操作方向を記憶する記憶部と、
前記取っ手の座標系における原点と一致する中心位置から、前記取っ手の初期操作方向の直線上の任意の終端部まで伸びる形状である、仮想的な受動モデルを設置する受動モデル設置部と、
前記受動モデルの前記中心位置と前記終端部を結ぶ直線に沿って前記アームを操作する第1処理と、前記力検出部によって検出された力に基づいて前記受動モデルの姿勢を更新する第2処理と、を繰り返す制御部と、を備える。
上述した本発明の態様によれば、ドアの取っ手の動きに、ロボットアームによる取っ手の操作方向を応答性良く追従させることができるという効果が得られる。
以下、図面を参照して本発明の実施の形態について説明する。
図1は、本実施の形態に係るロボット1の全体構成例を示す図である。ロボット1は、蝶番22を中心に回転させて開閉するタイプのドア2を、ドア2のドアノブ(取っ手)21を把持した状態で開閉するロボットである。ロボット1は、ロボット本体11と、ロボットアーム12と、力センサ13と、制御装置14と、を備えている。
図1は、本実施の形態に係るロボット1の全体構成例を示す図である。ロボット1は、蝶番22を中心に回転させて開閉するタイプのドア2を、ドア2のドアノブ(取っ手)21を把持した状態で開閉するロボットである。ロボット1は、ロボット本体11と、ロボットアーム12と、力センサ13と、制御装置14と、を備えている。
ロボットアーム12は、ロボット本体11に取り付けられる。また、ロボットアーム12は、先端に設けられたロボットハンド121によってドアノブ21を把持可能である。ロボットハンド121は、把持部の一例である。また、ロボットアーム12は、複数の関節(図1では2つ)を備えており、制御装置14からの制御信号に従い、複数の関節に設けられたアクチュエータ(不図示)を駆動することによって、人間の腕のように駆動することができる。また、ロボットアーム12は、制御装置14からの制御信号に従い、ロボットハンド121の把持動作を実現する複数のアクチュエータ(不図示)を駆動することによって、ロボットハンド121を人間の手のように駆動することができる。本実施の形態では、ロボットアーム12は、ロボットハンド121を6自由度方向に任意の角度で動作させることが可能であるとする。
力センサ13は、ドアノブ21からロボットハンド121に加わる外力を検出するもので、力検出部の一例である。力センサ13によって検出された外力は制御装置14に出力される。
制御装置14は、ロボットアーム12に制御信号を出力することによって、ドア2の開閉を実現するようロボットアーム12を制御する。制御装置14は、ロボット本体11に内蔵されており、CPU(Central Processing Unit)、CPUによって実行される制御プログラム、演算プログラム等が記憶されたROM(Read Only Memory)、処理データ等を記憶するRAM(Random Access Memory)等からなるマイクロコンピュータを中心にして、ハードウェア構成されている。
ここで、まず、本実施の形態に係る制御装置14における、ロボットアーム12の制御方法の概要について説明する。
本実施の形態では、ロボットハンド121でドア2のドアノブ21を把持した状態で、ドア2を開閉させる。しかし、ドア2は、回転させて開閉するタイプであるため、ドア2が開くにつれて、ロボットアーム12によるドアノブ21の操作方向が変わる。これに対応するため、倣い制御を行うことが考えられる。
本実施の形態では、ロボットハンド121でドア2のドアノブ21を把持した状態で、ドア2を開閉させる。しかし、ドア2は、回転させて開閉するタイプであるため、ドア2が開くにつれて、ロボットアーム12によるドアノブ21の操作方向が変わる。これに対応するため、倣い制御を行うことが考えられる。
しかし、実際には、ロボットハンド121とドアノブ21との間には滑りがあるため、ドア2が開くにつれて、ドア2の開き角度と、ロボットアーム12によるドアノブ21の操作角度(引く角度)と、が乖離し、ドアを開ききることができないことがある。そのため、ドアノブ21の動きに応じて、ロボットアーム12によるドアノブ21の操作方向を適宜更新することが重要である。
そこで、本実施の形態では、制御装置14は、図2に示されるように、ロボットハンド121がドアノブ21を把持する把持位置に、非ホロミックで受動的な特性を持つ仮想的な内部モデル(以下、受動モデルMと称す)を設置する。そして、制御装置14は、ドアノブ21の動きに応じて、受動モデルMを更新し、更新した受動モデルMの姿勢に基づいて、ロボットアーム12によるドアノブ21の操作方向を制御する。具体的には、制御装置14は、ロボットアーム12が、受動モデルMの長手方向に沿って、ドアノブ21を操作するよう制御する。
このような受動モデルMをドアノブ21の把持位置に設置することで、ロボットハンド121が動作可能な6自由度が5自由度以下に拘束されることになる。その結果、ドアノブ21の動きに、ドアノブ21の操作方向を応答性良く追従させることができる。その一方で、ドア2の振動や力センサ13のセンサノイズの影響を受けにくくなるため、その他の方向への感度を低く抑えることができる。
さらに、本実施の形態では、制御装置14は、受動モデルMの姿勢に応じて、ドアノブ21の操作方向を制御するだけでなく、ドアノブ21の操作方向とロボットハンド121の姿勢(方向)とが一致するように、ロボットアーム12の姿勢を制御する。これにより、図2に示されるように、ドアノブ21を、ドア2と直交するする操作方向に効率よく操作することができる。なお、図2において、受動モデルMには、キャスター車輪Cが設けられている。
次に、本実施の形態に係るロボット1の動作フローについて説明する。
図3は、本実施の形態に係るロボット1において、ドア2を操作する場合の動作フローの例を示すフローチャートである。本実施の形態では、ドアノブ21の初期の操作方向である初期操作方向は既知であり、制御装置14に記憶されているものとする。また、ロボットハンド121がドアノブ21を把持し、ドアノブ21の初期操作方向と受動モデルMの姿勢とが一致した状態で、ドア2の操作が開始されるものとする。
図3は、本実施の形態に係るロボット1において、ドア2を操作する場合の動作フローの例を示すフローチャートである。本実施の形態では、ドアノブ21の初期の操作方向である初期操作方向は既知であり、制御装置14に記憶されているものとする。また、ロボットハンド121がドアノブ21を把持し、ドアノブ21の初期操作方向と受動モデルMの姿勢とが一致した状態で、ドア2の操作が開始されるものとする。
まず、制御装置14は、受動モデルMの姿勢Xcenterに応じた操作方向へドアノブ21の操作力fopを発生するよう、ロボットアーム12を制御する(ステップS1)。初期の受動モデルMの姿勢Xcenterは、ドアノブ21の初期操作方向と一致する。そのため、ここでは、制御装置14は、ドアノブ21の初期操作方向に操作力fopを発生するよう制御する。
続いて、制御装置14は、受動モデルMの姿勢Xcenterに応じたドアノブ21の操作方向とロボットハンド121の姿勢(方向)とが一致するように、ロボットアーム12の姿勢を制御する(ステップS2)。初期の受動モデルMの姿勢姿勢Xcenterは、ドアノブ21の初期操作方向と一致する。そのため、ここでは、制御装置14は、ロボットハンド121の姿勢(方向)を、ドアノブ21の初期操作方向と一致するよう制御する。
ロボットアーム12は、制御装置14によるステップS1,S2の制御に従い、ドアノブ21を操作する。また、力センサ13は、このときにロボットハンド121に掛かる外力fcenterを検出し、検出した外力fcenterを制御装置14に出力する。
続いて、制御装置14は、力センサ13によって検出されたロボットハンド121に掛かる外力fcenterを入力として(ステップS3)、受動モデルMを更新する(ステップS4)。これにより、更新した最新の受動モデルMの姿勢Xcenterが得られる。
続いて、制御装置14は、ドア2の操作が完了したか否かを判定し(ステップS5)、操作が完了していた場合、処理を終了する。
一方、ドア2の操作が完了していない場合、ステップS1の処理に戻る。そして、制御装置14は、ステップS1において、直近のステップS4で更新した最新の受動モデルMの姿勢Xcenterに応じた操作方向へドアノブ21の操作力fopを発生するよう、ロボットアーム12を制御する。また、制御装置14は、ステップS2において、直近のステップS4で更新された最新の受動モデルMの姿勢Xcenterに応じたドアノブ21の操作方向とロボットハンド121の姿勢(方向)とが一致するように、ロボットアーム12の姿勢を制御する。以下、上記と同様のステップS3,S4の処理を行う。
一方、ドア2の操作が完了していない場合、ステップS1の処理に戻る。そして、制御装置14は、ステップS1において、直近のステップS4で更新した最新の受動モデルMの姿勢Xcenterに応じた操作方向へドアノブ21の操作力fopを発生するよう、ロボットアーム12を制御する。また、制御装置14は、ステップS2において、直近のステップS4で更新された最新の受動モデルMの姿勢Xcenterに応じたドアノブ21の操作方向とロボットハンド121の姿勢(方向)とが一致するように、ロボットアーム12の姿勢を制御する。以下、上記と同様のステップS3,S4の処理を行う。
次に、図3のステップS4の受動モデルMの更新処理について説明する。
本実施の形態では、ロボットハンド121によるドアノブ21の把持位置に受動モデルMをあてはめるために、図4に示されるような座標系を定義する。
本実施の形態では、ロボットハンド121によるドアノブ21の把持位置に受動モデルMをあてはめるために、図4に示されるような座標系を定義する。
ドアノブ21の座標系をΣnobとし、仮想的な受動モデルMの座標系をΣcenterとする。また、仮想的な受動モデルMとして、キャスターモデルのような受動的な要素を仮定した場合の受動モデルMの終端の座標系をΣtailとする。なお、以上の座標系は全て、Σgrobalを基準とした座標系とする。
また、ΣcenterとΣnobの原点は一致し、姿勢のみが異なるとする。また、ΣcenterとΣtailのx軸は同一直線上にあり、両者は距離Lだけ離れているとする。
ロボットアーム12によるドアノブ21の操作力fopは、Σcenterのxc方向に作用させる(ドア2を開く場合の操作方向は−xc方向となり、ドア2を閉じる場合の操作方向はxc方向となる)。
また、ロボットハンド121とドアノブ21の相対姿勢は固定されておらず、ロボットハンド121は任意の姿勢を自由に取れることを前提としている。
ロボットアーム12によるドアノブ21の操作力fopは、Σcenterのxc方向に作用させる(ドア2を開く場合の操作方向は−xc方向となり、ドア2を閉じる場合の操作方向はxc方向となる)。
また、ロボットハンド121とドアノブ21の相対姿勢は固定されておらず、ロボットハンド121は任意の姿勢を自由に取れることを前提としている。
ここで、非ホロミックな受動モデルMとして、キャスターモデルを仮定した場合、力センサ13によって検出されたロボットハンド121に掛かる外力fcenterと、ロボットアーム12によるドアノブ21の操作力fopと、からなる合力によって、受動モデルMには以下の式(1)で表される外力が作用する。
受動モデルMの中心の位置・姿勢を実現するように、ロボットアーム12のロボットハンド121を制御するため、式(3)をロボットハンド121の座標系Σcenterへ変換する必要がある。
例えば、ΣcenterとΣtailとの幾何学的な関係は、以下の式(6)〜式(8)で定義することができる。
例えば、ΣcenterとΣtailとの幾何学的な関係は、以下の式(6)〜式(8)で定義することができる。
式(9)から分かるように、力センサ13によって検出されたロボットハンド121に掛かる外力fcenterを入力とし、ドア2を開けるのに適した受動モデル特性を実現する、受動モデルMの姿勢Xcenterを出力とする制御ループを組むことが可能になる。
制御装置14は、受動モデルMの更新処理後、ドア2の操作が完了していなければ、最新のXcenterの姿勢方向をドアノブ21の操作方向として、ドアノブ21へ操作力fopを発生するように、ロボットアーム12を制御する(図3のステップS1に相当)。さらに、制御装置14は、ドアノブ21の操作方向とロボットハンド121の姿勢(方向)とが一致するように、ロボットアーム12の姿勢を制御する(図3のステップS2に相当)。
上述のようにして、式(9)に基づいて、ロボットアーム12によるドアノブ21の操作方向及びロボットハンド121の姿勢を制御することにより、ドアノブ21の動きに、ドアノブ21の操作方向を応答性良く追従させることができる。その一方で、他の方向への感度(ドア2の振動や力センサ13のセンサノイズの影響)を低く迎えることができる。これにより、ドアノブ21の安定的な操作を実現することができるため、ロボットハンド121とドアノブ21との間に滑りがあったとしても、ドア2を開ききることができる。
次に、本実施の形態に係る制御装置14の構成について説明する。
図5は、本実施の形態に係る制御装置14の構成例を示すブロック図である。制御装置14は、記憶部141と、受動モデル設置部142と、制御部143と、を備えている。なお、受動モデル設置部142及び制御部143は、例えば、CPUによって実現することができ、また、記憶部141は、例えば、ROM、RAM等によって実現することができる。
図5は、本実施の形態に係る制御装置14の構成例を示すブロック図である。制御装置14は、記憶部141と、受動モデル設置部142と、制御部143と、を備えている。なお、受動モデル設置部142及び制御部143は、例えば、CPUによって実現することができ、また、記憶部141は、例えば、ROM、RAM等によって実現することができる。
記憶部141は、ドアノブ21の初期操作方向を記憶する。
受動モデル設置部142は、ドアノブ21の座標系における原点と一致する中心位置(Σcenter)から、ドアノブ21の初期操作方向の直線上の任意の終端部(Σtail)まで伸びる形状である、仮想的な受動モデルMを設置する。
受動モデル設置部142は、ドアノブ21の座標系における原点と一致する中心位置(Σcenter)から、ドアノブ21の初期操作方向の直線上の任意の終端部(Σtail)まで伸びる形状である、仮想的な受動モデルMを設置する。
制御部143は、ロボットアーム12に制御信号を出力することによって、ドア2の開閉を実現するようロボットアーム12を制御する。具体的には、制御部143は、受動モデルMの中心位置(Σcenter)と終端部(Σtail)とを結ぶΣcenter−Σtail直線(受動モデルMの長手方向)に沿って、ロボットアーム12を操作する第1処理と、力センサ13によって検出された外力(fcenter)に基づいて受動モデルMの姿勢(Xcenter)を更新する第2処理と、を繰り返す。
上述のように、制御部143は、力センサ13によって検出された外力(fcenter)に基づいて更新した受動モデルMのΣcenter−Σtail直線に沿って、ロボットアーム12を操作する。そのため、ドアノブ21の動きに、ドアノブ21の操作方向を応答性良く追従させる一方で、他の方向への感度を低く迎えることができる。これにより、ロボットハンド121とドアノブ21との間に滑りがあったとしても、ドア2を開ききることができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1 ロボット
11 ロボット本体
12 ロボットアーム
121 ロボットハンド
13 力センサ
14 制御装置
141 記憶部
142 受動モデル設置部
143 制御部
2 ドア
21 ドアノブ
22 蝶番
M 受動モデル
C キャスター車輪
11 ロボット本体
12 ロボットアーム
121 ロボットハンド
13 力センサ
14 制御装置
141 記憶部
142 受動モデル設置部
143 制御部
2 ドア
21 ドアノブ
22 蝶番
M 受動モデル
C キャスター車輪
Claims (1)
- ドアの取っ手を把持部によって把持可能なアームと、
前記アームに加わる力を検出する力検出部と、
前記取っ手の初期操作方向を記憶する記憶部と、
前記取っ手の座標系における原点と一致する中心位置から、前記取っ手の初期操作方向の直線上の任意の終端部まで伸びる形状である、仮想的な受動モデルを設置する受動モデル設置部と、
前記受動モデルの前記中心位置と前記終端部を結ぶ直線に沿って前記アームを操作する第1処理と、前記力検出部によって検出された力に基づいて前記受動モデルの姿勢を更新する第2処理と、を繰り返す制御部と、を備えるロボット。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016037577A JP2017154193A (ja) | 2016-02-29 | 2016-02-29 | ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016037577A JP2017154193A (ja) | 2016-02-29 | 2016-02-29 | ロボット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017154193A true JP2017154193A (ja) | 2017-09-07 |
Family
ID=59809080
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016037577A Pending JP2017154193A (ja) | 2016-02-29 | 2016-02-29 | ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017154193A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10649580B1 (en) | 2011-08-05 | 2020-05-12 | P4tents1, LLC | Devices, methods, and graphical use interfaces for manipulating user interface objects with visual and/or haptic feedback |
CN113681560A (zh) * | 2021-08-26 | 2021-11-23 | 浙江大学 | 基于视力融合的机械臂操作铰接物体的方法 |
WO2022203873A1 (en) * | 2021-03-25 | 2022-09-29 | University Of Houston System | Robotics assisted opening systems and methods |
-
2016
- 2016-02-29 JP JP2016037577A patent/JP2017154193A/ja active Pending
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10649580B1 (en) | 2011-08-05 | 2020-05-12 | P4tents1, LLC | Devices, methods, and graphical use interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10649581B1 (en) | 2011-08-05 | 2020-05-12 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10656759B1 (en) | 2011-08-05 | 2020-05-19 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10671213B1 (en) | 2011-08-05 | 2020-06-02 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10788931B1 (en) | 2011-08-05 | 2020-09-29 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US10996787B1 (en) | 2011-08-05 | 2021-05-04 | P4tents1, LLC | Gesture-equipped touch screen system, method, and computer program product |
US11061503B1 (en) | 2011-08-05 | 2021-07-13 | P4tents1, LLC | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
US11740727B1 (en) | 2011-08-05 | 2023-08-29 | P4Tents1 Llc | Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback |
WO2022203873A1 (en) * | 2021-03-25 | 2022-09-29 | University Of Houston System | Robotics assisted opening systems and methods |
CN113681560A (zh) * | 2021-08-26 | 2021-11-23 | 浙江大学 | 基于视力融合的机械臂操作铰接物体的方法 |
CN113681560B (zh) * | 2021-08-26 | 2023-07-04 | 浙江大学 | 基于视力融合的机械臂操作铰接物体的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11235461B2 (en) | Controller and machine learning device | |
JP6456555B1 (ja) | キャリブレーション装置、キャリブレーション方法および制御装置 | |
US10953548B2 (en) | Perform peg-in-hole task with unknown tilt | |
KR102421676B1 (ko) | 다관절 로봇의 액추에이터들을 제어하기 위한 시스템 및 방법 | |
JP7367233B2 (ja) | 軌道中心モデルに基づく強化学習のロバスト最適化を行うためのシステムおよび方法 | |
Horowitz | Learning control of robot manipulators | |
Perrusquía et al. | Position/force control of robot manipulators using reinforcement learning | |
JP2005310109A (ja) | 自己較正センサー指向システム | |
US20200384639A1 (en) | Robot device controller, robot device arrangement and method for controlling a robot device | |
JP2017154193A (ja) | ロボット | |
JP2018118353A (ja) | 学習制御機能を備えた制御システム及び制御方法 | |
JP2005305633A (ja) | 操作デバイス用の自己較正指向システム | |
US11104007B2 (en) | Apparatus and method for controlling robot | |
KR102275302B1 (ko) | 입력 포화를 가지는 불확실한 전기 구동 로봇 시스템에 대해 pso를 이용한 rbfnn 기반 분산 적응 추종 시스템 | |
JP2022543926A (ja) | ロボットシステムのためのデリバティブフリーモデル学習のシステムおよび設計 | |
Dirksz et al. | Adaptive tracking control of fully actuated port-Hamiltonian mechanical systems | |
George Thuruthel et al. | Closing the control loop with time-variant embedded soft sensors and recurrent neural networks | |
Qiao et al. | Dynamic modeling and motion control of a soft robotic arm segment | |
Schenk et al. | Application of a differentiator-based adaptive super-twisting controller for a redundant cable-driven parallel robot | |
Huang et al. | Adaptive impedance control of robotic exoskeletons using reinforcement learning | |
Bavili et al. | Controller design for nonlinear bilateral teleoperation systems via total energy shaping | |
JP6567998B2 (ja) | 制御方法 | |
Kawaharazuka et al. | Dynamic task control method of a flexible manipulator using a deep recurrent neural network | |
KR100222763B1 (ko) | 로봇의 위치제어용 선형출력 제어장치 및 방법 | |
JP2020003893A (ja) | ロバスト調整装置及びモデル作成方法 |