JP2007011978A - Motion controller for robot - Google Patents
Motion controller for robot Download PDFInfo
- Publication number
- JP2007011978A JP2007011978A JP2005195258A JP2005195258A JP2007011978A JP 2007011978 A JP2007011978 A JP 2007011978A JP 2005195258 A JP2005195258 A JP 2005195258A JP 2005195258 A JP2005195258 A JP 2005195258A JP 2007011978 A JP2007011978 A JP 2007011978A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- movable part
- sensor
- control
- hand
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
Description
本発明は、ロボットの位置・姿勢の制御を行う運動制御装置に関する。 The present invention relates to a motion control apparatus that controls the position and posture of a robot.
物体を把持して、これを別の場所へ移動させる等、所定の動作を行わせるロボットハンドが知られている。同種の物体について同一の動作を繰り返し実行させるのではなく、性状(大きさや形状)が様々な物体について多様な動作を行わせようとすると、運動が複雑になり、さらに、位置・姿勢だけでなく、力の制御も必要となるため、制御自体も複雑化する。そうした多用途のロボットハンドにおいて精度よく制御を行うための技術が提案されている(例えば、特許文献1、特許文献2参照)。
A robot hand that performs a predetermined operation such as holding an object and moving the object to another location is known. Rather than repeatedly performing the same action on the same type of object, trying to perform various actions on objects with various properties (sizes and shapes) complicates the movement, and not only the position / posture Since force control is also required, the control itself is complicated. Techniques have been proposed for accurately controlling such multipurpose robot hands (see, for example,
特許文献1の技術では、ロボットハンドのハンド位置の実際の変位と所望の変位との差を表す変位誤差信号に選択行列とヤコビ行列との行列積の疑似逆行列を乗じることにより選択されたジョイント変位誤差信号を計算する。それとともに、ハンドに作用する実際の力と所望の力との差から力誤差信号を生成し、同様に選択されたジョイント力誤差信号を計算する。計算したジョイント変位誤差信号とジョイント力誤差信号に基づいて制御信号を生成し、ハンドを所望の位置に移動させ、所望の力を発揮させるものである。
In the technique of
特許文献2の技術では、視覚センサにより予め作業対象物を撮影して参照画像として記憶し、作業中に視覚センサにより撮影した作業対象物の画像が参照画像と同じ状態になるよう位置姿勢を制御する視覚フィードバック制御を行うものである。
しかしながら、特許文献1の技術は、ロボットの製造精度や可動部の制御誤差等により、制御部で把握しているハンド位置と実際の位置とにずれが生ずる場合があり、その結果、所望の位置へハンドを導けない可能性がある。
However, the technique of
また、特許文献2の技術を用いれば、視覚センサから位置・姿勢情報を取得できるため、制御部で把握しているハンド位置と実際の位置とのずれを修正することが可能であるが、通常視覚センサに用いられるカメラのフレームレートでは、高速でのフィードバック制御ができない。高速でのフィードバック制御に対応した高フレームレートのカメラは高価で、画像処理系も高速化する必要があり、ロボットハンドへの適用は容易ではない。また、障害物等により、対象物の映像を正常に取得できない場合は、制御を行うことができない。
Moreover, if the technique of
そこで本発明は、高速で精度よく制御処理を行うことを可能としたロボットの運動制御装置を提供することを課題とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a robot motion control apparatus that enables high-speed and accurate control processing.
上記課題を解決するため、本発明に係るロボットの運動制御装置は、駆動機構により機械的に移動可能な部位を有するロボットの運動を制御する制御装置であって、非接触で移動可能部位の位置と移動可能部位の目標位置を検出する外界センサと、駆動機構の駆動に応じた移動可能部位相互の位置関係を取得する内界センサと、移動可能部位の目標位置へ向けた移動を制御する移動制御手段と、外界センサを用いて取得した移動可能部位の位置と内界センサを用いて取得した移動可能部位の位置との偏差を求め、移動制御手段において制御に用いる移動可能部位の目標位置を修正する位置修正手段と、を備えていることを特徴とする。 In order to solve the above-described problems, a robot motion control device according to the present invention is a control device that controls the motion of a robot having a part that can be mechanically moved by a drive mechanism, and the position of the part that can be moved without contact. And an external sensor for detecting the target position of the movable part, an internal sensor for acquiring the positional relationship between the movable parts according to the drive of the drive mechanism, and a movement for controlling the movement of the movable part toward the target position A deviation between the position of the movable part acquired using the control means and the external sensor and the position of the movable part acquired using the internal sensor is obtained, and the target position of the movable part used for control in the movement control means is obtained. And a position correcting means for correcting.
外界センサとしては、視覚センサや超音波センサ、レーダ等の非接触型のセンサが用いられる。また、内界センサとしては、ロボットの関節に配置された関節角度位置センサや駆動モータの角度センサ等が用いられる。外界センサと内界センサそれぞれによって求めた移動可能部位の位置情報を基にして制御に用いる移動可能部位の目標位置を検証し、修正を行う。 As the external sensor, a non-contact type sensor such as a visual sensor, an ultrasonic sensor, or a radar is used. Further, as the internal sensor, a joint angle position sensor arranged at the joint of the robot, an angle sensor of a drive motor, or the like is used. The target position of the movable part used for the control is verified and corrected based on the position information of the movable part obtained by the external sensor and the inner sensor.
外界センサが、位置修正手段の位置修正に比べて長いサンプリングタイムを有している場合には、外界センサを用いて取得した移動可能部位の位置の時間変化を基にして内界センサによる位置情報取得時点に対応した移動可能部位の位置情報を推定して、位置修正手段へと出力する位置推定手段をさらに備えているとよい。 If the external sensor has a longer sampling time than the position correction of the position correction means, the position information by the internal sensor based on the time change of the position of the movable part acquired using the external sensor It is preferable to further include position estimation means for estimating the position information of the movable part corresponding to the acquisition time point and outputting it to the position correction means.
位置修正手段による位置修正タイミングは、移動制御手段の制御サンプリングタイムに合致する。高精度で追従性の高い運動を行わせるためには、制御サンプリング周期は短くすることが好ましい。一方、外界センサに視覚センサ等を用いた場合には、位置情報の取得に長時間を要することになり、それによる位置情報取得は内界センサによるサンプリングと一致せず、数回またはそれ以上おきに取得されることになる。位置推定手段は、この内界センサによる位置情報取得に応じた時点での外界センサによる位置情報を基にして移動可能部位の位置情報を推定する。 The position correction timing by the position correction means matches the control sampling time of the movement control means. It is preferable to shorten the control sampling period in order to perform a highly accurate and highly followable motion. On the other hand, when a visual sensor or the like is used as the external sensor, it takes a long time to acquire the position information, and the acquisition of the position information does not coincide with the sampling by the internal sensor, and every several times or more. Will be acquired. The position estimation means estimates the position information of the movable part based on the position information obtained by the external sensor at the time when the position information is obtained by the internal sensor.
ここで、外界センサによる位置情報取得の成否を判定し、位置情報取得が成功しなかったと判定した場合には、前記位置修正手段による修正を禁止する禁止手段をさらに備えていることが好ましい。外界センサによる位置情報取得が成功しなかった場合に、位置修正手段が誤った位置情報に基づいて位置修正を行うのを抑制するためである。 Here, it is preferable to further include prohibiting means for prohibiting correction by the position correcting means when it is determined whether or not the position information acquisition by the external sensor is successful and it is determined that the position information acquisition is not successful. This is to prevent the position correction unit from correcting the position based on the incorrect position information when the position information acquisition by the external sensor is not successful.
外界センサの位置情報取得のサンプリング周期は、内界センサによる位置情報取得周期の整数倍であると位置情報修正、制御のタイミングを合わせやすくなり、好ましい。 The sampling cycle for acquiring the position information of the external sensor is preferably an integral multiple of the position information acquisition cycle of the internal sensor, which makes it easier to match the timing of the position information correction and control.
本発明によれば、内界センサを用いて駆動機構の位置関係を基に求めた移動可能部位の位置情報と、外界センサを用いて非接触で求めた移動可能部位の位置情報の差分を利用して制御に用いる目標位置を修正するので、制御部で把握している移動可能部位の位置と実際の移動可能部位の位置のずれを修正することができ、精度よく制御を行うことができる。 According to the present invention, the difference between the position information of the movable part obtained based on the positional relationship of the drive mechanism using the inner world sensor and the position information of the movable part obtained without contact using the outer world sensor is used. Since the target position used for the control is corrected, the shift between the position of the movable part grasped by the control unit and the actual position of the movable part can be corrected, and the control can be performed with high accuracy.
さらに、外界センサのサンプリングタイムが長い場合には、より短いサンプリングタイムでの位置情報を推定可能な位置推定手段を設けることで、例えば、映像取得レートの低い視覚センサを用いた場合でも、高速で制御を行うことが可能となり、速い動きに対しても対応することができる。 Further, when the sampling time of the external sensor is long, by providing a position estimation means capable of estimating position information with a shorter sampling time, for example, even when using a visual sensor with a low video acquisition rate, It is possible to perform control, and it is possible to cope with fast movement.
また、外界センサによる位置情報取得が成功しなかったと判定した場合には、位置修正を禁止することで、制御乱れを抑制する。そして、外界センサの位置情報取得のサンプリング周期を内界センサによる位置情報取得サンプリング周期の整数倍であると位置情報修正、制御の同期が容易になる。 Further, when it is determined that the position information acquisition by the external sensor has not been successful, the control disturbance is suppressed by prohibiting the position correction. If the sampling period for acquiring the position information of the external sensor is an integral multiple of the sampling period for acquiring the position information by the internal sensor, the positional information correction and control synchronization are facilitated.
以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。図1は、本発明に係るロボットの運動制御装置を有するロボットの概略構成図であり、図2は、その制御装置のブロック構成図である。 DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted. FIG. 1 is a schematic configuration diagram of a robot having a robot motion control device according to the present invention, and FIG. 2 is a block configuration diagram of the control device.
図1に示されるように、ロボット100の胴体8には、左右双方のアーム7L、7Rを介して、ロボットハンド1R、1Lが取り付けられている。この胴体8は、移動式または固定式の台座に取り付けられている。胴体8の頭部には、視覚センサであるカメラアイ3を備えている。ハンド1、アーム7の各関節には、関節駆動用のモータと、関節角度を検出するエンコーダポテンションメータが配置されている。
As shown in FIG. 1,
制御装置は、RAM、ROM、CPU等で構成される制御ECU2を中心に構成されており、対象物およびロボットハンド1の画像を撮影するカメラアイ3の出力画像から画像認識処理により、対象物およびロボットハンド1の位置・姿勢を認識する画像認識部20と、画像認識結果を基にして把持位置・把持姿勢の目標値を求める位置姿勢演算部21と、目標値に応じてロボットハンド1の動きを制御するロボット制御部22とを有している。ロボット制御部22には、各エンコーダポテンションメータ16の出力信号が入力され、モータドライバ4を制御することで、各モータ14の動きを制御して、ロボットハンド1とアーム7の動きを制御する。
The control device is mainly configured by a
制御装置は、このような構成に限られるものではなく、指示された姿勢となるようロボットハンド1、アーム7の動きを制御する制御部と、画像認識装置や把持姿勢の演算部を、別体としてもよい。また、これらの演算部・制御部は、ハードウェア的に区分されていてもソフトウェア的に区分されていてもよい。
The control device is not limited to such a configuration, and a control unit that controls the movement of the
制御ECU2によって行われる制御(複合型ビジュアルフィードバック制御)の制御系を示すブロック図を図3に示す。この制御系には、第1のフィードバック制御系25と、第2のフィードバック制御系26からなり、第1のフィードバック制御系25のフィードバックループの外側に第2のフィードバック制御系のフィードバックループが存在する2重フィードバックループを構成している。
FIG. 3 is a block diagram showing a control system of control (composite visual feedback control) performed by the
先に、第1のフィードバック制御系25の構成から説明する。第1のフィードバック制御系25は、ロボット100の関節部に配置された各エンコーダポテンションメータ16で測定した関節角度θが順運動学演算部251に入力され、順運動学演算によりハンド1・アーム7の実位置・姿勢を表す特徴量ξを求める。この実位置・姿勢情報ξと、後述する第2のフィードバック制御系26の出力であるハンド1・アーム7の目標位置・姿勢を表す特徴量(目標位置・姿勢情報)ξ’dとの差分に演算部252は、フィードバック制御係数λとヤコビアン行列の疑似逆行列とを乗じることで関節サーボ系の角速度目標値を求める(図中においては、θrefのθの上に・をつけて表す)。この角速度目標と、ロボット100の実際の関節角速度(図中においては、θの上に・をつけて表す)との差分がサーボ系であるモータドライバ4に入力され、各モータ14の動きを制御する。
First, the configuration of the first
一方、第2のフィードバック制御系26は、画像認識部20の認識結果である位置・姿勢情報ξcrawを基にして、第1の運動推定部261が現在の位置・姿勢情報ξcを求める。一方、設定されている目標位置・姿勢情報ξdrawから、第2の運動推定部262は、現在の目標位置・姿勢情報ξdを求める。ξcと上述した順運動学演算部251の演算結果である実位置・姿勢情報ξとの差分Δξdを求めた目標位置・姿勢情報ξdから差し引くことで、第1のフィードバック制御系25へと出力する目標位置・姿勢情報ξ’dを求める。
On the other hand, in the second
ここで、第1のフィードバック制御系25のサンプリングタイム(周期)Ts1は、第2のフィードバック制御系26のサンプリングタイム(周期)Ts2(ここでいう第2のフィードバック制御系26のサンプリングタイムは、カメラアイ3、画像認識部20のサンプリングタイムであって、各運動推定部261、262の出力時間間隔とは異なる。)より充分に短く設定されている。カメラアイ3として用いられる撮像装置は、通常、ビデオフレームレート(33ms程度)で画像を取得する。これに対して、第1のフィードバック制御系25の各要素は、その数倍〜数十倍の速度で制御を行うことが可能である。そして、各運動推定部261、262の出力時間間隔は、第1のフィードバック制御系25のサンプリングタイムに一致している。
Here, the sampling time (period) T s1 of the first
内部フィードバックループを構成する第1のフィードバック制御系25のフィードバック量は、ハンド1、アーム7の構造、関節部、つまり、各リンクのパラメータおよび関節角度から計算される。
The feedback amount of the first
一方、外部フィードバックループを構成する第2のフィードバック制御系26においては、カメラアイ3の取得タイミングの遅れを補償し、適切な指令を与えるため、対象物体とハンド1、アーム7の運動を推定する機構が必要となる。第2のフィードバック制御系26における第1および第2の運動推定部261、262は、そのための機構である。
On the other hand, in the second
ここでは、例として線型補間を行う場合を例に説明する。図4は、運動推定を説明する図であり、s(k)は、tk時刻における視覚センサによる検出量、s(k-1)は、tk-1時刻における視覚センサによる検出量である。そして、T2はT1の整数倍であり、T2=tk−tk-1=tk+1−tkである。このとき、任意の、tk時刻とtk+1時刻間の運動推定値(s(i)上に符号^をつけて表す。)は、次式により表される。 Here, a case where linear interpolation is performed will be described as an example. FIG. 4 is a diagram for explaining motion estimation, where s (k) is the detection amount by the visual sensor at time t k , and s (k−1) is the detection amount by the visual sensor at time t k−1. . T 2 is an integer multiple of T 1 , and T 2 = t k −t k−1 = t k + 1 −t k . In this case, any, (expressed with the sign ^ on s (i).) Motion estimation value between t k time and t k + 1 time is expressed by the following equation.
この補間式により第1のフィードバック制御系におけるサンプリングタイムに同期させて運動推定値を出力することができ、カメラアイ3の取得タイミングの遅れを補償することができる。ここでは、運動推定に線型補間を用いたが、2次式、あるいは、その他の多項式を用いて補間を行うようにしてもよい。
With this interpolation formula, a motion estimation value can be output in synchronization with the sampling time in the first feedback control system, and a delay in the acquisition timing of the
第2のフィードバック制御系26においては、カメラアイ3−画像認識部20により認識されるハンドの位置姿勢から、取得タイミングの遅れを補償したξCとアームの順運動学により計算される実位置・姿勢情報ξとの差分Δξdをフィードバック制御量としている。これにより、ロボットの関節部分の誤差やセンサ・パラメータの誤差、関節の状態等に起因して生ずる順運動学により計算されるハンド1、アーム7の位置姿勢と、現実の位置姿勢とのずれを除去できる。
In the second
さらに、作業対象物とハンド1を同一のカメラアイ3により同時に撮影し、画像認識部20で認識処理することができるため、カメラアイ3、画像認識部20のパラメータの同定誤差やパラメータの変動により生ずる作業対象物とハンド1間の相対的な位置姿勢の認識誤差を回避することができ、高精度での制御が可能となる。
Further, since the work object and the
また、カメラアイ3と対象物またはハンド1との間に障害物が存在する場合や障害物が存在しなくとも画像認識部20で対象物やハンド1の認識に失敗する等して画像認識部20から位置・姿勢情報ξcrawが得られなかった場合(正常でないは判定した場合を含む。)には、フィードバック量であるΔξdを0に設定する。これにより、外部フィードバックループが機能せず、内部フィードバックループのみを実行することになる。そのため、位置・姿勢情報ξcrawの異常に起因するハンド1、アーム7の誤動作を抑制することができる。
In addition, when there is an obstacle between the
次に、本発明にかかる運動制御装置における制御方法の処理を図5、図6のフローチャートを参照して説明する。図5は、静止した物体を把持する場合の把持処理のフローチャートであり、図6は、動的な物体を把持する場合の把持処理のフローチャートである。 Next, the process of the control method in the motion control apparatus according to the present invention will be described with reference to the flowcharts of FIGS. FIG. 5 is a flowchart of the gripping process when gripping a stationary object, and FIG. 6 is a flowchart of the gripping process when gripping a dynamic object.
先に、静止対象物の把持処理を図5のフローチャートを参照して説明する。まず、画像認識部20がカメラアイ3で取得した画像を画像処理することで対象物体の位置姿勢を認識する(ステップS1)。次に、位置姿勢演算部21は、対象物を把持するためのアーム7とハンド1の位置姿勢を決定する(ステップS2)。
First, the gripping process of the stationary object will be described with reference to the flowchart of FIG. First, the
設定後、上述した制御系(ビジュアルサーボ系)を利用してハンド1、アーム7を制御し(ステップS3)、目標位置への到達を判定し(ステップS4)、到達していない場合には、ステップS3へと戻ることで、到達するまでハンド1、アーム7の駆動制御を継続する。目標位置へ到達したと判定した場合には、ステップS5へと移行して、対象物体を把持し、処理を終了する。必要ならば、引き続き、物体を把持したまま所定の動作、例えば、物体をある場所から別の場所へと移動させる動作、を行わせればよい。
After setting, the
次に、動的な物体を把持する場合の把持処理を図6を参照して説明する。ここでいう動的な物体とは、対象物自体が移動している場合のほかに、ロボット100の本体側が移動している場合を含んでおり、ロボット本体と対象物とが相対的に移動している場合を指す概念である。
Next, gripping processing when gripping a dynamic object will be described with reference to FIG. The dynamic object here includes not only the case where the object itself is moving, but also the case where the main body side of the
最初に、画像認識部20がカメラアイ3で取得した画像を画像処理することで対象物体の位置姿勢を認識する(ステップS11)。次に、位置姿勢演算部21は、対象物を把持するためのアーム7とハンド1の位置姿勢を決定する(ステップS12)。設定後、上述した制御系(ビジュアルサーボ系)を利用してハンド1、アーム7を制御し(ステップS13)、目標位置への到達を判定する(ステップS14)。
First, the
ここまでの基本的な処理は、図5に示される処理と同一であるが、ロボットに対して相対的に静止している対象物の場合には、対象物の位置姿勢は制御中変動しないため、これを新たに取得する必要がないのに対し、ロボットに対して相対的に移動している対象物の場合には、対象物の位置姿勢は制御中も時々刻々変動する。そこで、目標位置へと到達していないと判定した場合には、ステップS11へと戻ることで、対象物の位置姿勢の認識から再度実行し、ハンド1、アーム7の駆動制御を継続する。目標位置へ到達したと判定した場合には、ステップS15へと移行して、対象物体を把持し、処理を終了する。必要ならば、引き続き、物体を把持したまま所定の動作、例えば、物体をある場所から別の場所へと移動させる動作、を行わせればよい。
The basic processing so far is the same as the processing shown in FIG. 5, but in the case of an object that is stationary relative to the robot, the position and orientation of the object do not change during control. On the other hand, in the case of an object moving relative to the robot, the position and orientation of the object fluctuate from moment to moment even during control. Therefore, when it is determined that the target position has not been reached, the process returns to step S11 to execute again from recognition of the position and orientation of the object, and the drive control of the
発明者らは、本発明の制御方法による目標対象物へのハンドの追従性の向上効果を確認するためのシミュレーションを行ったので、以下にその結果について述べる。ここでは、図7に示されるロボット100を用い、対象物200の把持を行う右手1Rの甲にカメラアイ3−画像認識部20において、ハンド1の位置姿勢の認識を容易にするための特徴点A〜Cを配置したものとする。以下、ロボット100の胴体8に対して、前後方向をX軸、左右方向をY軸、上下方向をZ軸とし、ロボット100の重心を原点とする直交座標系を用いる。
The inventors conducted a simulation for confirming the effect of improving the followability of the hand to the target object by the control method of the present invention, and the results will be described below. Here, using the
制御系においては、内部フィードバックループを構成する第1のフィードバック制御系25のサンプリングタイムT1を1ms、外部フィードバックループを構成する第2のフィードバック制御系26のサンプリングタイム(映像取得フレームレート)T2を40msとする。
In the control system, the sampling time T1 of the first
まず、静的物体の把持をシミュレーションした場合について説明する。特徴点A〜Cをそれぞれ(338.8,−306.5,451.6)mm、(303.4,−306.5,416.3)mm、(268.1,−306.5,451.6)mmの初期位置から(376.6,−622.5,1106.0)mm、(398.2,−647.5,1068.5)mm、(367.0,−625.8,1036.0)mmの目標位置へとアームを移動させる場合を考え、本発明の制御方法(運動推定を含むビジュアルフィードバック制御あり)とビジュアルフィードバック制御を含まない従来の制御方法とでアームの軌跡を比較した。ここで、アーム7のリンク長には、0.01mの誤差が含まれているものとする。 First, a case where a gripping of a static object is simulated will be described. The feature points A to C are (338.8, −306.5, 451.6) mm, (303.4, −306.5, 416.3) mm, and (268.1, −306.5, 451), respectively. .6) mm from the initial position (376.6, -622.5, 1106.0) mm, (398.2, -647.5, 1068.5) mm, (367.0, -625.8, Considering the case of moving the arm to a target position of 1036.0) mm, the trajectory of the arm is determined by the control method of the present invention (with visual feedback control including motion estimation) and the conventional control method not including visual feedback control. Compared. Here, it is assumed that the link length of the arm 7 includes an error of 0.01 m.
図8に、シミュレーション結果を示す。ここでは、特徴点Aの軌跡変化のみを示している。ビジュアルフィードバック制御を含まない従来制御の場合には、目標位置からX、Y、Z方向とも数mm程度ずれた位置で移動が終了しており、把持対象物が小さい場合には、把持に失敗する可能性がある。これに対して、本発明によれば、アーム7のパラメータ誤差で生じたロボットハンドの位置姿勢誤差を修正することができ、アーム7、ハンド1を目標対象に高精度に追従させることができることが確認できた。
FIG. 8 shows the simulation result. Here, only the locus change of the feature point A is shown. In the case of conventional control that does not include visual feedback control, movement ends at a position that is shifted by several millimeters in the X, Y, and Z directions from the target position, and gripping fails when the gripping target is small. there is a possibility. On the other hand, according to the present invention, the position and orientation error of the robot hand caused by the parameter error of the arm 7 can be corrected, and the arm 7 and the
次に、動的物体の把持をシミュレーションした場合について説明する。特徴点A〜Cの初期位置を上記静的物体の把持の場合と同様に、それぞれ(338.8,−306.5,451.6)mm、(303.4,−306.5,416.3)mm、(268.1,−306.5,451.6)mmとする。特徴点の初期目標位置は、(429.1,−311.5,764.7)mm、(429.1,−311.5,714.7)mm、(379.1,−311.5,714.7)mmであり、10秒後の目標位置は、(376.2,−622.5,1106.0)mm、(398.2,−647.5,1068.5)mm、(367.0,−625.8,1036.0)mmであり、目標位置は等速で移動するものとする。この目標値の軌跡を図9に示す。ここでは、本発明の制御方法と運動推定を行わないビジュアルフィードバック制御とでアームの軌跡を比較した。 Next, a case where a dynamic object gripping simulation is simulated will be described. The initial positions of the feature points A to C are (338.8, −306.5, 451.6) mm and (303.4, −306.5, 416. 3) mm, and (268.1, -306.5, 451.6) mm. The initial target positions of the feature points are (429.1, −311.5, 764.7) mm, (429.1, −311.5, 714.7) mm, (379.1, −311.5, The target position after 10 seconds is (376.2, −622.5, 1106.0) mm, (398.2, −647.5, 1068.5) mm, (367). 0.0, −625.8, 1036.0) mm, and the target position moves at a constant speed. The trajectory of this target value is shown in FIG. Here, the trajectory of the arm was compared between the control method of the present invention and visual feedback control without motion estimation.
図10に、シミュレーション結果を示す。ここでは、特徴点Aの軌跡変化のみを示している。運動推定を行わない場合には、目標位置からX、Y、Z方向とも数mm程度ずれた軌跡を描いており、把持対象物の動きに充分に追従することができない。これは、ビジュアルフィードバック制御の遅れによるものである。これに対して、本発明によれば、ビジュアルフィードバックの制御の遅れを運動推定によって修正することができ、アーム7、ハンド1を目標対象に高精度に追従させることができることが確認できた。
FIG. 10 shows the simulation result. Here, only the locus change of the feature point A is shown. When motion estimation is not performed, a trajectory deviated by several millimeters in the X, Y, and Z directions from the target position is drawn, and the movement of the grasped object cannot be sufficiently followed. This is due to a delay in visual feedback control. In contrast, according to the present invention, it was confirmed that the delay in visual feedback control can be corrected by motion estimation, and the arm 7 and the
図11は、対象物がYZ平面内で円運動している場合の特徴点Aの軌跡を示している。点Aの円運動の目標軌跡の中心座標(ya、za)=(−311.5,764.7)mmで円運動の半径は100mmであり、運動周期は5秒とした。特徴点Aの初期位置は、(338.8,−306.5,451.6)mmとした。 FIG. 11 shows the trajectory of the feature point A when the object is circularly moving in the YZ plane. The center coordinates (y a , z a ) = (− 311.5, 764.7) mm of the target locus of the circular motion of the point A, the radius of the circular motion was 100 mm, and the motion cycle was 5 seconds. The initial position of the feature point A was (338.8, −306.5, 451.6) mm.
運動推定を行わない場合には、ビジュアルフィードバック制御の遅れのため、追従性が悪い。これに対して、本発明によれば、この遅れを運動推定によって保証するため、追従精度が向上している。これにより、動的な物体に対する把持制御について好適であることが確認された。 When motion estimation is not performed, followability is poor due to delay in visual feedback control. On the other hand, according to the present invention, since this delay is guaranteed by motion estimation, the tracking accuracy is improved. Thereby, it was confirmed that it was suitable about the grip control with respect to a dynamic object.
以上説明した実施形態では、視覚センサ(カメラアイ)を用いた複合型ビジュアルフィードバック制御系について説明したが、視覚センサに代えて、超音波センサやレーダ等を用いて非接触で対象物や制御対象であるロボットの運動部(移動可能部位)の位置を判定するセンサ(外界センサ)を用いてもよい。また、エンコーダポテンションメータに代えて、各種の位置センサ、駆動機構の制御状態から各駆動機構の位置関係を取得するセンサ(内界センサ)を組み合わせてもよい。 In the embodiment described above, the composite visual feedback control system using the visual sensor (camera eye) has been described. However, instead of the visual sensor, an object or control target is contactlessly used by using an ultrasonic sensor or a radar. A sensor (external sensor) that determines the position of the moving part (movable part) of the robot may be used. Further, instead of the encoder potentiometer, various position sensors and sensors (inner world sensors) for acquiring the positional relationship of each drive mechanism from the control state of the drive mechanism may be combined.
また、以上の説明では、ロボットハンド・アームの動作制御を例に説明したが、その他のロボットの駆動部分である首、指、胴体、足等の制御についても適用可能である。また、人型でないロボットの各種の駆動部分においても同様に適用可能である。 In the above description, the operation control of the robot hand / arm has been described as an example, but the present invention can also be applied to the control of the neck, fingers, torso, feet, etc., which are other robot drive parts. Further, the present invention can be similarly applied to various drive parts of a robot that is not humanoid.
1…ロボットハンド、3…カメラアイ、4…モータドライバ、7…アーム、8…胴体、14…モータ、16…エンコーダポテンションメータ、20…画像認識部、21…位置姿勢演算部、22…ロボット制御部、25…第1のフィードバック制御系、26…第2のフィードバック制御系、100…ロボット、251…順運動学演算部、252…演算部、261…第1の運動推定部、262…第2の運動推定部。
DESCRIPTION OF
Claims (4)
非接触で前記移動可能部位の位置と前記移動可能部位の目標位置を検出する外界センサと、
前記駆動機構の駆動に応じた前記移動可能部位相互の位置関係を取得する内界センサと、
前記移動可能部位の目標位置へ向けた移動を制御する移動制御手段と、
前記外界センサを用いて取得した移動可能部位の位置と前記内界センサを用いて取得した移動可能部位の位置との偏差を求め、前記移動制御手段において制御に用いる前記移動可能部位の目標位置を修正する位置修正手段と、
を備えていることを特徴とするロボットの運動制御装置。 A control device for controlling the movement of a robot having a part that can be mechanically moved by a drive mechanism,
An external sensor for detecting a position of the movable part and a target position of the movable part in a non-contact manner;
An internal sensor that acquires the positional relationship between the movable parts according to the driving of the driving mechanism;
Movement control means for controlling movement of the movable part toward the target position;
A deviation between the position of the movable part acquired using the external sensor and the position of the movable part acquired using the internal sensor is obtained, and the target position of the movable part used for control in the movement control means is determined. Position correcting means for correcting;
A robot motion control device comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005195258A JP2007011978A (en) | 2005-07-04 | 2005-07-04 | Motion controller for robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005195258A JP2007011978A (en) | 2005-07-04 | 2005-07-04 | Motion controller for robot |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007011978A true JP2007011978A (en) | 2007-01-18 |
Family
ID=37750332
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005195258A Pending JP2007011978A (en) | 2005-07-04 | 2005-07-04 | Motion controller for robot |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007011978A (en) |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010284781A (en) * | 2009-06-15 | 2010-12-24 | Fanuc Ltd | Robot system with robot abnormality monitoring function |
JP2012130977A (en) * | 2010-12-20 | 2012-07-12 | Toshiba Corp | Robot control apparatus |
WO2012115166A1 (en) * | 2011-02-24 | 2012-08-30 | オリンパス株式会社 | Master operation input device and master-slave manipulator |
US8565390B2 (en) | 1999-01-28 | 2013-10-22 | International Business Machines Corporation | Dynamically reconfigurable distributed interactive voice response system |
WO2013176212A1 (en) * | 2012-05-25 | 2013-11-28 | 学校法人立命館 | Robot control device, robot control method, program, recording medium, and robot system |
JP2014035722A (en) * | 2012-08-10 | 2014-02-24 | Omron Corp | Data display device, method, and program |
JP2014140941A (en) * | 2013-01-25 | 2014-08-07 | Seiko Epson Corp | Robot control system, robot, robot control method, and program |
JP2015030086A (en) * | 2013-08-07 | 2015-02-16 | キヤノン株式会社 | Robot control method, robot system, program and recording medium |
JP2015074063A (en) * | 2013-10-10 | 2015-04-20 | セイコーエプソン株式会社 | Robot control device, robot system, robot, robot control method, and program |
JP2015085467A (en) * | 2013-10-31 | 2015-05-07 | セイコーエプソン株式会社 | Control device, robot, robot system and control method |
JP2016052699A (en) * | 2014-09-03 | 2016-04-14 | 学校法人立命館 | Robot control system and robot control method |
CN107921626A (en) * | 2015-05-01 | 2018-04-17 | 通用电气公司 | System and method for controlling Robotic Manipulator |
JP2018530443A (en) * | 2015-09-21 | 2018-10-18 | レインボー ロボティックスRainbow Robotics | Real-time control system, real-time control device, and system control method |
JP2020023024A (en) * | 2018-08-08 | 2020-02-13 | オムロン株式会社 | Control system, analyzer, and control method |
CN110891741A (en) * | 2017-05-31 | 2020-03-17 | 库卡德国有限公司 | Control of a robot cell |
CN111070194A (en) * | 2019-12-23 | 2020-04-28 | 东莞市旭源智能自动化设备有限公司 | Mobile vision and mobile manipulator positioning device |
WO2020138587A1 (en) * | 2018-12-24 | 2020-07-02 | 경북대학교 산학협력단 | Method for calculating maximum rectangular prism workspace of multi-axis machine |
CN111496776A (en) * | 2019-01-30 | 2020-08-07 | 株式会社安川电机 | Robot system, robot control method, robot controller, and recording medium |
CN113352313A (en) * | 2020-03-06 | 2021-09-07 | 思特威(上海)电子科技股份有限公司 | Multi-level sensor decision control system of robot |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS625408A (en) * | 1985-07-01 | 1987-01-12 | Fanuc Ltd | Method for controlling joint-type robot |
JPH05305588A (en) * | 1992-04-28 | 1993-11-19 | Toyoda Mach Works Ltd | Control device for visual sense robot |
JPH0768480A (en) * | 1993-09-06 | 1995-03-14 | Mitsubishi Heavy Ind Ltd | Method for controlling articular angle of manipulator |
JPH1185235A (en) * | 1997-09-01 | 1999-03-30 | Yaskawa Electric Corp | Visual feedback method for machine device using image pickup unit |
JP2002189519A (en) * | 2000-12-21 | 2002-07-05 | Mitsubishi Heavy Ind Ltd | Tracing system and tracing method |
-
2005
- 2005-07-04 JP JP2005195258A patent/JP2007011978A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS625408A (en) * | 1985-07-01 | 1987-01-12 | Fanuc Ltd | Method for controlling joint-type robot |
JPH05305588A (en) * | 1992-04-28 | 1993-11-19 | Toyoda Mach Works Ltd | Control device for visual sense robot |
JPH0768480A (en) * | 1993-09-06 | 1995-03-14 | Mitsubishi Heavy Ind Ltd | Method for controlling articular angle of manipulator |
JPH1185235A (en) * | 1997-09-01 | 1999-03-30 | Yaskawa Electric Corp | Visual feedback method for machine device using image pickup unit |
JP2002189519A (en) * | 2000-12-21 | 2002-07-05 | Mitsubishi Heavy Ind Ltd | Tracing system and tracing method |
Cited By (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8565390B2 (en) | 1999-01-28 | 2013-10-22 | International Business Machines Corporation | Dynamically reconfigurable distributed interactive voice response system |
JP4741691B2 (en) * | 2009-06-15 | 2011-08-03 | ファナック株式会社 | Robot system with robot abnormality monitoring function |
JP2010284781A (en) * | 2009-06-15 | 2010-12-24 | Fanuc Ltd | Robot system with robot abnormality monitoring function |
JP2012130977A (en) * | 2010-12-20 | 2012-07-12 | Toshiba Corp | Robot control apparatus |
US9186796B2 (en) | 2011-02-24 | 2015-11-17 | Olympus Corporation | Master input device and master-slave manipulator |
WO2012115166A1 (en) * | 2011-02-24 | 2012-08-30 | オリンパス株式会社 | Master operation input device and master-slave manipulator |
US20120221145A1 (en) * | 2011-02-24 | 2012-08-30 | Olympus Corporation | Master input device and master-slave manipulator |
CN103402714A (en) * | 2011-02-24 | 2013-11-20 | 奥林巴斯株式会社 | Master operation input device and master-slave manipulator |
JP2012171088A (en) * | 2011-02-24 | 2012-09-10 | Olympus Corp | Master operation input device, and master-slave manipulator |
WO2013176212A1 (en) * | 2012-05-25 | 2013-11-28 | 学校法人立命館 | Robot control device, robot control method, program, recording medium, and robot system |
US9616573B2 (en) | 2012-05-25 | 2017-04-11 | The Ritsumeikan Trust | Robot control apparatus, robot control method, program, recording medium and robot system |
JPWO2013176212A1 (en) * | 2012-05-25 | 2016-01-14 | 学校法人立命館 | Robot control device, robot control method, program, recording medium, robot system |
JP2014035722A (en) * | 2012-08-10 | 2014-02-24 | Omron Corp | Data display device, method, and program |
JP2014140941A (en) * | 2013-01-25 | 2014-08-07 | Seiko Epson Corp | Robot control system, robot, robot control method, and program |
JP2015030086A (en) * | 2013-08-07 | 2015-02-16 | キヤノン株式会社 | Robot control method, robot system, program and recording medium |
JP2015074063A (en) * | 2013-10-10 | 2015-04-20 | セイコーエプソン株式会社 | Robot control device, robot system, robot, robot control method, and program |
JP2015085467A (en) * | 2013-10-31 | 2015-05-07 | セイコーエプソン株式会社 | Control device, robot, robot system and control method |
JP2016052699A (en) * | 2014-09-03 | 2016-04-14 | 学校法人立命館 | Robot control system and robot control method |
CN107921626A (en) * | 2015-05-01 | 2018-04-17 | 通用电气公司 | System and method for controlling Robotic Manipulator |
CN107921626B (en) * | 2015-05-01 | 2023-02-03 | 通用电气公司 | System and method for controlling robotic manipulation |
US11135719B2 (en) | 2015-09-21 | 2021-10-05 | Rainbow Robotics | Real-time control system, real-time control device and system control method |
JP2018530443A (en) * | 2015-09-21 | 2018-10-18 | レインボー ロボティックスRainbow Robotics | Real-time control system, real-time control device, and system control method |
CN110891741A (en) * | 2017-05-31 | 2020-03-17 | 库卡德国有限公司 | Control of a robot cell |
JP2020023024A (en) * | 2018-08-08 | 2020-02-13 | オムロン株式会社 | Control system, analyzer, and control method |
WO2020138587A1 (en) * | 2018-12-24 | 2020-07-02 | 경북대학교 산학협력단 | Method for calculating maximum rectangular prism workspace of multi-axis machine |
KR102199554B1 (en) | 2018-12-24 | 2021-01-07 | 경북대학교 산학협력단 | Calculating method of maximum rectangular prism working volume for multi-axis machine |
KR20200078885A (en) * | 2018-12-24 | 2020-07-02 | 경북대학교 산학협력단 | Calculating method of maximum rectangular prism working volume for multi-axis machine |
CN111496776A (en) * | 2019-01-30 | 2020-08-07 | 株式会社安川电机 | Robot system, robot control method, robot controller, and recording medium |
US11577399B2 (en) | 2019-01-30 | 2023-02-14 | Kabushiki Kaisha Yaskawa Denki | Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium |
CN111070194A (en) * | 2019-12-23 | 2020-04-28 | 东莞市旭源智能自动化设备有限公司 | Mobile vision and mobile manipulator positioning device |
CN113352313A (en) * | 2020-03-06 | 2021-09-07 | 思特威(上海)电子科技股份有限公司 | Multi-level sensor decision control system of robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007011978A (en) | Motion controller for robot | |
CN108214454B (en) | Robot system, robot control device, and robot control method | |
JP4961860B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
US9393696B2 (en) | Robot system and robot control method | |
JP6180087B2 (en) | Information processing apparatus and information processing method | |
US8744625B2 (en) | Robot controlling device | |
JP5528095B2 (en) | Robot system, control apparatus and method thereof | |
JP5448326B2 (en) | Gripping device and gripping device control method | |
US20190015989A1 (en) | Robot Control Device, Robot, Robot System, And Calibration Method Of Camera | |
JP6700669B2 (en) | Control method, robot device, program, recording medium, and article manufacturing method | |
JP7035657B2 (en) | Robot control device, robot, robot system, and camera calibration method | |
JP6700726B2 (en) | Robot controller, robot control method, robot control system, and computer program | |
JP2011115877A (en) | Double arm robot | |
WO2018043525A1 (en) | Robot system, robot system control device, and robot system control method | |
JP2007319938A (en) | Robot device and method of obtaining three-dimensional shape of object | |
JP6622765B2 (en) | Robot system | |
JPWO2018092243A1 (en) | Work position correction method and work robot | |
JP2008183690A (en) | Robot control device and system | |
JP2008207262A (en) | Manipulator system | |
JP6217322B2 (en) | Robot control apparatus, robot, and robot control method | |
JP2021045810A (en) | Motion information generation device, end effector, robot and robot system | |
JP4222338B2 (en) | Adaptive visual feedback control method | |
JP2011062763A (en) | Robot controller | |
JP2011093076A (en) | Method and apparatus for information processing, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080602 |
|
A977 | Report on retrieval |
Effective date: 20100413 Free format text: JAPANESE INTERMEDIATE CODE: A971007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100420 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100621 |
|
A131 | Notification of reasons for refusal |
Effective date: 20101207 Free format text: JAPANESE INTERMEDIATE CODE: A131 |
|
A02 | Decision of refusal |
Effective date: 20110405 Free format text: JAPANESE INTERMEDIATE CODE: A02 |