JP4222338B2 - Adaptive visual feedback control method - Google Patents

Adaptive visual feedback control method Download PDF

Info

Publication number
JP4222338B2
JP4222338B2 JP2005141672A JP2005141672A JP4222338B2 JP 4222338 B2 JP4222338 B2 JP 4222338B2 JP 2005141672 A JP2005141672 A JP 2005141672A JP 2005141672 A JP2005141672 A JP 2005141672A JP 4222338 B2 JP4222338 B2 JP 4222338B2
Authority
JP
Japan
Prior art keywords
control
jacobian matrix
feedback control
term
link mechanism
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005141672A
Other languages
Japanese (ja)
Other versions
JP2006318301A (en
Inventor
暁友 張
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2005141672A priority Critical patent/JP4222338B2/en
Publication of JP2006318301A publication Critical patent/JP2006318301A/en
Application granted granted Critical
Publication of JP4222338B2 publication Critical patent/JP4222338B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Numerical Control (AREA)
  • Image Processing (AREA)

Description

本発明は、ロボットハンド・アーム等の多関節を有するリンク機構の制御方法に関し、特に、撮像装置で取得した画像を基にして制御を行うのに適した適応型ビジュアルフィードバック制御方法に関する。   The present invention relates to a control method for a link mechanism having multiple joints such as a robot hand arm, and more particularly to an adaptive visual feedback control method suitable for performing control based on an image acquired by an imaging apparatus.

ロボットアイ等のカメラで撮影した画像情報を基にしてロボットハンド等のリンク機構を有する機械装置の作動をフィードバック制御するビジュアルフィードバック制御という制御手法が知られている(例えば、特許文献1参照)。   A control method called visual feedback control is known that feedback-controls the operation of a mechanical device having a link mechanism such as a robot hand based on image information taken by a camera such as a robot eye (see, for example, Patent Document 1).

特許文献1記載の技術では、画像座標系上の対象物体の特徴部分の動き(2次元速度ベクトル)を作業座標系上の特徴部分の動きに変換する際に必要となる局所的な2次元速度ベクトル座標変化行列(画像ヤコビアン行列)を作業座標系上の対象物体の動きから推定して対象物体に対する機械装置の作動を制御している。
特開平11−85235号公報
In the technique described in Patent Document 1, the local two-dimensional velocity required when converting the motion (two-dimensional velocity vector) of the feature portion of the target object on the image coordinate system into the motion of the feature portion on the work coordinate system. A vector coordinate change matrix (image Jacobian matrix) is estimated from the movement of the target object on the work coordinate system to control the operation of the mechanical device with respect to the target object.
JP-A-11-85235

しかしながら、この技術では、作業座標系上の対象物体の動きは所定の拘束平面上の動きに限定されており、3次元空間における動きに対して対応することができない。また、ビジュアルフィードバック制御系においては、視覚センサとして通常、テレビカメラ等のビデオフレームレートで画像を取り込むセンサ、画像処理系が使用されるが、実際の作業物体の動きが制御系に伝達されるまでには、ビデオフレームレート以上の遅れを生ずることは避けられないため、フィードバックループが遅くなり、制御入力が過大となって不安定になりやすく、追従誤差も大きくなりやすいという問題点がある。   However, with this technique, the movement of the target object on the work coordinate system is limited to a movement on a predetermined constraint plane, and cannot cope with movement in a three-dimensional space. In a visual feedback control system, a sensor that captures an image at a video frame rate, such as a television camera, and an image processing system are usually used as a visual sensor, but until the actual movement of the work object is transmitted to the control system. However, since it is inevitable that the delay is higher than the video frame rate, there is a problem that the feedback loop becomes slow, the control input becomes excessive and becomes unstable, and the tracking error tends to increase.

そこで本発明は、3次元空間の動きに対応するとともに、目標軌道へ高精度に追従することが可能で、煩雑なパラメータを必要としないリンク機構のビジュアルフィードバック制御方法を提供することを課題とする。   SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a visual feedback control method for a link mechanism that can respond to a movement in a three-dimensional space, can follow a target trajectory with high accuracy, and does not require complicated parameters. .

上記課題を解決するため、本発明にかかるビジュアルフィードバック制御方法は、撮像装置で取得した画像を画像処理して得られた情報を基にして多関節を有するリンク機構のフィードバック制御を行う方法であって、リンク機構の目標位置姿勢を基にフィードフォワード制御項と予見制御項を用いるとともに、リンク機構の位置姿勢の変分と関節角度の変分との関係を記述するヤコビアン行列を追従誤差から推定し、推定したヤコビアン行列およびその疑似逆行列を用いて設定した各制御項により制御指令値を求める適応型ビジュアルフィードバック制御方法であることを特徴とする。
当該リンク機構の位置姿勢の時間微分値と関節の駆動角速度を用い、ヤコビアン行列の時間差分項の分母に1より小さい定数を加えた修正した式に基づいて当該ヤコビアン行列を推定すると好ましい。
In order to solve the above problems, a visual feedback control method according to the present invention is a method for performing feedback control of a link mechanism having multiple joints based on information obtained by performing image processing on an image acquired by an imaging device. Based on the target position and orientation of the link mechanism, the feedforward control term and the predictive control term are used, and the Jacobian matrix describing the relationship between the variation of the position and orientation of the link mechanism and the variation of the joint angle is estimated from the tracking error And an adaptive visual feedback control method for obtaining a control command value by each control term set using the estimated Jacobian matrix and its pseudo inverse matrix .
It is preferable that the Jacobian matrix is estimated based on a modified formula obtained by adding a constant smaller than 1 to the denominator of the time difference term of the Jacobian matrix, using the time differential value of the position and orientation of the link mechanism and the joint angular velocity.

制御時にフィードバック制御項に加えてフィードフォワード項、予見制御項を追加することで目標軌道からのずれを修正する。また、ヤコビアン行列を追従誤差から推定して、制御指令値を求めることで、煩雑なパラメータ同定を回避している。 The deviation from the target trajectory is corrected by adding a feedforward term and a preview control term in addition to the feedback control term during control. Also, complicated parameter identification is avoided by estimating the Jacobian matrix from the tracking error and obtaining the control command value.

本発明によれば、フィードフォワード項、予見制御項を用いることで、制御入力が過大になるのを抑制し、安定した制御を実現できるため、目標軌道への追従性の精度を向上させることができる。また、ヤコビアン行列のオンライン推定を行い、煩雑なパラメータ同定を回避することで、制御入力の計算が容易になるとともに、3次元空間の動きへの適用も可能としている。 According to the present invention, by using the feedforward term and the predictive control term, it is possible to suppress the control input from becoming excessive and to realize stable control, thereby improving the accuracy of followability to the target trajectory. it can. In addition, by performing online estimation of the Jacobian matrix and avoiding complicated parameter identification, calculation of the control input is facilitated and application to motion in a three-dimensional space is also possible.

以下、添付図面を参照して本発明の好適な実施の形態について詳細に説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の参照番号を附し、重複する説明は省略する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings. In order to facilitate the understanding of the description, the same reference numerals are given to the same components in the drawings as much as possible, and duplicate descriptions are omitted.

図1は、本発明に係るロボットハンドの適応型ビジュアルフィードバック制御方法を実現するロボットハンドを有するロボットの概略構成図であり、図2は、制御装置のブロック構成図である。   FIG. 1 is a schematic configuration diagram of a robot having a robot hand that realizes the adaptive visual feedback control method of the robot hand according to the present invention, and FIG. 2 is a block configuration diagram of a control device.

図1に示されるように、ロボット100の胴体8には、左右双方のアーム7L、7Rを介して、ロボットハンド1R、1Lが取り付けられている。この胴体8は、移動式または固定式の台座に取り付けられている。胴体8の頭部には、視覚センサであるカメラアイ3を備えている。ハンド1、アーム7の各関節には、関節駆動用のモータと、関節角度を検出するエンコーダポテンションメータが配置されている。   As shown in FIG. 1, robot hands 1R, 1L are attached to the body 8 of the robot 100 via both left and right arms 7L, 7R. The body 8 is attached to a movable or fixed base. The head of the body 8 is provided with a camera eye 3 that is a visual sensor. A motor for driving the joint and an encoder potentiometer for detecting the joint angle are arranged at each joint of the hand 1 and the arm 7.

ここで、アーム7は、ハンド1の手首部分まででそれぞれ7自由度を有している。またハンド1は、母指とこれに対向する3指を有しており、このうち、母指10は、4つの関節ごとにそれぞれモータが配置された4自由度のリンク系である。他の3指は、最先端の関節を除く3つの関節ごとにそれぞれモータが配置され、最先端の関節は、隣接する関節と連動する構成とされている。したがって、4関節でそれぞれ3自由度のリンク系を構成する。つまり、ロボットハンド1全体の自由度は13となる。   Here, each arm 7 has seven degrees of freedom up to the wrist portion of the hand 1. The hand 1 has a thumb and three fingers facing it, and the thumb 10 is a four-degree-of-freedom link system in which a motor is arranged for each of four joints. In the other three fingers, a motor is arranged for each of the three joints excluding the most advanced joint, and the most advanced joint is configured to interlock with the adjacent joint. Therefore, each of the four joints constitutes a link system having three degrees of freedom. That is, the degree of freedom of the entire robot hand 1 is 13.

制御装置は、RAM、ROM、CPU等で構成される制御ECU2を中心に構成されており、対象物およびロボットハンド1の画像を撮影するカメラアイ3の出力画像から画像認識処理により、対象物およびロボットハンド1の位置・姿勢を認識する画像認識部20と、画像認識結果を基にして把持位置・把持姿勢の目標値を求める位置姿勢演算部21と、目標値に応じてロボットハンド1の動きを制御するロボット制御部22とを有している。ロボット制御部22には、各エンコーダポテンションメータ16と、各指の指先に配置されている触覚センサ15の出力信号が入力され、モータドライバ4を制御することで、各モータ14の動きを制御して、ロボットハンド1とアーム7の動きを制御する。   The control device is mainly configured by a control ECU 2 including a RAM, a ROM, a CPU, and the like. An image recognition unit 20 that recognizes the position / posture of the robot hand 1, a position / posture calculation unit 21 that obtains a target value of the gripping position / griping posture based on the image recognition result, and a movement of the robot hand 1 according to the target value And a robot control unit 22 for controlling. The robot controller 22 receives the output signals of the encoder potentiometers 16 and the tactile sensors 15 arranged at the fingertips of the fingers, and controls the motor driver 4 to control the movement of the motors 14. Then, the movements of the robot hand 1 and the arm 7 are controlled.

制御装置は、このような構成に限られるものではなく、指示された姿勢となるようロボットハンド1、アーム7の動きを制御する制御部と、画像認識装置や把持姿勢の演算部を、別体としてもよい。また、これらの演算部・制御部は、ハードウェア的に区分されていてもソフトウェア的に区分されていてもよい。   The control device is not limited to such a configuration, and a control unit that controls the movement of the robot hand 1 and the arm 7 so as to have an instructed posture, and an image recognition device and a gripping posture calculation unit are separately provided. It is good. In addition, these calculation units / control units may be divided by hardware or software.

制御ECU2によって行われる制御(適応型ビジュアルフィードバック制御)の制御系を示すブロック図を図3に示す。ここで、現在時刻をtで表し、前回タイムステップの時刻をtk−1、次回タイムステップの時刻をtk+1で表すものとする。 A block diagram showing a control system of control (adaptive visual feedback control) performed by the control ECU 2 is shown in FIG. Here, the current time is represented by t k , the time of the previous time step is represented by t k−1 , and the time of the next time step is represented by t k + 1 .

目標軌道設定部201からは、現時点と将来(次回タイムステップ)の目標ハンド(アーム)位置r(t)、r(tk+1)がそれぞれ出力される。軌道計画部202には、このうち、将来の目標ハンド位置r(tk+1)が入力され、関節角の将来の目標値q(tk+1)が出力される。一方、現在のアーム関節角q(t)は、エンコーダポテンションメータ16により検出され、現在のハンド位置r(q)は画像処理に基づいて画像認識部20から出力される。アーム関節の駆動角速度(q(t)のq上に記号・を付して表す。)はアーム関節角q(t)を位置姿勢演算部21内で時間微分することで得られる。 The target trajectory setting unit 201 outputs the current and future (next time step) target hand (arm) positions r d (t k ) and r d (t k + 1 ), respectively. Of these, the future target hand position r d (t k + 1 ) is input to the trajectory planning unit 202, and the future target value q d (t k + 1 ) of the joint angle is output. On the other hand, the current arm joint angle q (t k ) is detected by the encoder potentiometer 16, and the current hand position r (q k ) is output from the image recognition unit 20 based on image processing. (Representing a symbol indicating & over q of q (t k).) Arm joint driving angular velocity obtained by time differentiation in the position and orientation calculation unit 21 to the arm joint angle q (t k).

各モータへの指令値u(t)は、3つの項、フィードバック制御項、フィードフォワード制御項、予見制御項からなる。 The command value u (t k ) for each motor includes three terms, a feedback control term, a feedforward control term, and a preview control term.

フィードバック制御項は、目標軌道設定部201から出力される目標ハンド位置r(t)と実際のハンド位置r(q)との差分を所定の係数K倍し、後述するヤコビアン行列の推定値(Jk上に記号^を付して表す。)の疑似逆行列(ヤコビアン行列の推定値に上添字+を付して表す。)を乗じて得た値として定義される。この項は制御閉ループの安定性を確保する項である。 The feedback control term multiplies the difference between the target hand position r d (t k ) output from the target trajectory setting unit 201 and the actual hand position r (q k ) by a predetermined coefficient K to estimate a Jacobian matrix that will be described later. It is defined as a value obtained by multiplying a pseudo inverse matrix (represented by adding the superscript + to the estimated value of the Jacobian matrix) of the value (represented by adding the symbol ^ on Jk). This term ensures the stability of the control closed loop.

フィードフォワード制御項は、目標軌道設定部201から出力される目標ハンド位置r(t)を時間微分して、フィードバック制御項と同様にヤコビアン行列の推定値の疑似逆行列を乗じて得た値として定義される。この項は、ハンド1、アーム7の動作を目標軌道に追従させるための項である。 The feedforward control term was obtained by time-differentiating the target hand position r d (t k ) output from the target trajectory setting unit 201 and multiplying the pseudo inverse matrix of the estimated value of the Jacobian matrix in the same manner as the feedback control term. Defined as a value. This term is a term for causing the movement of the hand 1 and arm 7 to follow the target trajectory.

予見制御項は、軌道計画部202から出力される目標関節角q(tk+1)と実際の現在の関節角q(t)との差分に対して、単位行列から後述するヤコビアン行列の推定値の疑似逆行列にヤコビアン行列の推定値行列を乗じた行列を減じた行列を乗じて得た値として定義される。この項は追従精度を向上させるとともに、制御入力を抑制して、安定した制御を実現するための項である。 The preview control term is an estimation of a Jacobian matrix to be described later from the unit matrix with respect to the difference between the target joint angle q d (t k + 1 ) output from the trajectory planning unit 202 and the actual current joint angle q (t k ). It is defined as a value obtained by multiplying a matrix obtained by subtracting a matrix obtained by multiplying a pseudo inverse matrix of values by an estimated value matrix of a Jacobian matrix. This term improves the following accuracy and suppresses the control input to realize stable control.

式(1)は、この指令値u(t)を表す式であり、右辺の第1項〜第3項がそれぞれフィードバック制御項、フィードフォワード制御項、予見制御項に該当する。 Expression (1) is an expression representing the command value u (t k ), and the first to third terms on the right side correspond to a feedback control term, a feedforward control term, and a preview control term, respectively.

Figure 0004222338
Figure 0004222338

次に、ヤコビアン行列の推定について説明する。追従誤差をeとし、eを式(2)により定義する。   Next, estimation of the Jacobian matrix will be described. Let e be a tracking error and define e by equation (2).

Figure 0004222338
Figure 0004222338

このとき、ヤコビアン行列は、式(3)で示される。 At this time, the Jacobian matrix is expressed by Equation (3).

Figure 0004222338
Figure 0004222338

ブロイデン法を適用して、式(2)と式(3)から推定式を導出すると、式(4)が導かれる。 By applying the Brauden method and deducing an estimation expression from Expression (2) and Expression (3), Expression (4) is derived.

Figure 0004222338
Figure 0004222338

式(4)を整理すると、次式(5)である。 When formula (4) is arranged, the following formula (5) is obtained.

Figure 0004222338
Figure 0004222338

(5)式のままだと、qの微分値が略0のときに、推定値が発散するため、1より小さい正の定数εを用いて、式(5)を式(6)のように修正して用いる。 If the equation (5) remains as it is, the estimated value diverges when the differential value of q k is approximately 0. Therefore, using a positive constant ε smaller than 1, equation (5) is expressed as equation (6). Modified to use.

Figure 0004222338
Figure 0004222338

ヤコビアン行列推定部203は式(6)に基づいてヤコビアン行列のオンライン推定を行い、出力する。   The Jacobian matrix estimation unit 203 performs online estimation of the Jacobian matrix based on Equation (6), and outputs it.

次に、本発明にかかる制御方法の処理を図4のフローチャートを参照して説明する。最初に、画像認識部20がカメラアイ3で取得した画像を画像処理することで対象物体の位置を認識する(ステップS1)。次に、位置姿勢演算部21は、アーム7とハンド1の動作経路を計画し(ステップS2)、計画した経路を記憶する(ステップS3)。この動作経路の計画は、把持時点における接触点の位置座標を設定し、逆運動学的にそのときのハンド1とアーム7の位置・姿勢をそれぞれ算定した後、各ハンド1、アーム7の目標軌道を設定すればよい。   Next, the process of the control method according to the present invention will be described with reference to the flowchart of FIG. First, the image recognition unit 20 recognizes the position of the target object by performing image processing on the image acquired by the camera eye 3 (step S1). Next, the position / orientation calculation unit 21 plans an operation path between the arm 7 and the hand 1 (step S2), and stores the planned path (step S3). The plan of this motion path is to set the position coordinates of the contact point at the time of gripping, calculate the positions and postures of the hand 1 and the arm 7 in reverse kinematics, and then set the target of each hand 1 and arm 7. A trajectory may be set.

設定後、上述した制御系を利用してハンド1、アーム7の駆動を制御する(ステップS4)ことで、アーム7、ハンド1を設定した経路に沿って移動させることで、物体の把持を行う。さらに、物体を把持したまま所定の動作(例えば、物体をある場所から別の場所へと移動させる)を行わせる(ステップS5)。所定の動作を完了したら、処理を終了する。   After the setting, the driving of the hand 1 and the arm 7 is controlled using the control system described above (step S4), and the arm 7 and the hand 1 are moved along the set path to hold the object. . Further, a predetermined operation (for example, moving the object from one place to another) is performed while holding the object (step S5). When the predetermined operation is completed, the process is terminated.

発明者らは、本発明の制御方法による目標軌道への追従性の向上効果を確認するためのシミュレーションを行ったので、以下にその結果について述べる。図5は、シミュレーションで対象とした目標軌道を示している。XYZ座標系において(379.1,−311.5,714.7)mmの初期位置から(529.1,−161.5,864.7)mmの目標位置まで直線経路でアームを移動させる場合を考える。ここでは、初期位置から目標位置までの移動時間を10秒に設定し、制御系のサンプリングタイムを40msに設定し、予見制御なしと予見制御ありの2種類の制御方法を用いた場合のアームの軌跡を比較した。なお、ヤコビアン行列の初期値として以下の初期値を利用した。   The inventors have performed a simulation for confirming the effect of improving the followability to the target trajectory by the control method of the present invention, and the results will be described below. FIG. 5 shows a target trajectory targeted in the simulation. In the XYZ coordinate system, the arm is moved by a straight path from an initial position of (379.1, −311.5, 714.7) mm to a target position of (529.1, −161.5, 864.7) mm think of. Here, the movement time from the initial position to the target position is set to 10 seconds, the sampling time of the control system is set to 40 ms, and the arm of the two types of control methods without foresight control and with foresight control is used. The trajectories were compared. The following initial values were used as initial values of the Jacobian matrix.

Figure 0004222338
Figure 0004222338

図6(a)〜(c)は、それぞれの制御方法における移動軌跡のX、Y、Z各座標値を目標軌跡と比較して示したものである。図に示されるように、予見制御を用いないビジュアルフィードバック制御においては、目標軌跡からのずれが大きい。本シミュレーションでは、このずれは発散にまでは至っていないが、最大で目標位置から100mm近くはずれており、近くに障害物等が存在した場合には衝突してしまう可能性がある。   6A to 6C show the X, Y, and Z coordinate values of the movement trajectory in each control method compared with the target trajectory. As shown in the figure, in visual feedback control that does not use preview control, the deviation from the target locus is large. In this simulation, this deviation does not reach divergence, but it is at most 100 mm away from the target position, and there is a possibility of collision if there is an obstacle or the like nearby.

これに対して、予見制御を用いたビジュアルフィードバック制御においては、運動開始初期に目標軌跡からのずれが発生するが、早期に収束し、その後のずれはほとんど見られない。初期のずれはヤコビアン行列の初期値のずれに起因するものであり、動きに合わせて適切な設定を行うことでさらに低減することが可能と考えられる。   In contrast, in visual feedback control using preview control, a deviation from the target trajectory occurs at the beginning of the motion, but converges early and hardly sees any deviation thereafter. The initial shift is caused by the shift of the initial value of the Jacobian matrix, and it is considered that it can be further reduced by appropriately setting according to the movement.

以上のシミュレーション結果から、本発明の制御方法により目標軌道への追従性を向上させる効果が確認された。また、ヤコビアン行列をオンラインで推定することで、煩雑な同定プロセスを回避しつつ、実際の動きに適合させる効果も確認できた。   From the above simulation results, the effect of improving the followability to the target trajectory by the control method of the present invention was confirmed. In addition, by estimating the Jacobian matrix online, it was possible to confirm the effect of adapting to the actual movement while avoiding a complicated identification process.

ここでは、ロボットアームについてシミュレーションによる検証を行ったが、ロボットハンドについても同様の効果が得られる。また、本発明の適用範囲はこのようなロボットハンド、アームに限られるものではなく、多関節を有するリンク機構の制御として広く活用することが可能である。   Here, the robot arm is verified by simulation, but the same effect can be obtained for the robot hand. The scope of application of the present invention is not limited to such robot hands and arms, but can be widely used as control of a link mechanism having multiple joints.

本発明に係るロボットハンドの適応型ビジュアルフィードバック制御方法を実現するロボットハンドを有するロボットの概略構成図である。It is a schematic block diagram of the robot which has the robot hand which implement | achieves the adaptive visual feedback control method of the robot hand which concerns on this invention. 図1のロボットの制御装置のブロック構成図である。It is a block block diagram of the control apparatus of the robot of FIG. 図2の制御系を示すブロック図である。It is a block diagram which shows the control system of FIG. 図3の制御処理を示すフローチャートである。It is a flowchart which shows the control processing of FIG. シミュレーションで対象とした目標軌道を示す図である。It is a figure which shows the target track | orbit made into object by simulation. 予見制御の有無の2つの制御における移動軌跡のX、Y、Z各座標値を目標軌跡と比較して示したものである。The X, Y, and Z coordinate values of the movement trajectory in the two controls with and without preview control are shown in comparison with the target trajectory.

符号の説明Explanation of symbols

1…ロボットハンド、3…カメラアイ、4…モータドライバ、7…アーム、8…胴体、14…モータ、16…エンコーダポテンションメータ、15…触覚センサ、20…画像認識部、21…位置姿勢演算部、22…ロボット制御部、100…ロボット、201…目標軌道設定部、202…軌道計画部、203…ヤコビアン行列推定部。   DESCRIPTION OF SYMBOLS 1 ... Robot hand, 3 ... Camera eye, 4 ... Motor driver, 7 ... Arm, 8 ... Body, 14 ... Motor, 16 ... Encoder potentiometer, 15 ... Tactile sensor, 20 ... Image recognition part, 21 ... Position and orientation calculation Unit 22, robot control unit 100, robot 201, target trajectory setting unit 202, trajectory plan unit 203, Jacobian matrix estimation unit

Claims (2)

撮像装置で取得した画像を画像処理して得られた情報を基にして多関節を有するリンク機構のフィードバック制御を行う方法において、
リンク機構の目標位置姿勢を基にフィードフォワード制御項と予見制御項を用いるとともに、リンク機構の位置姿勢の変分と関節角度の変分との関係を記述するヤコビアン行列を追従誤差から推定し、推定したヤコビアン行列およびその疑似逆行列を用いて設定した各制御項により制御指令値を求めることを特徴とする適応型ビジュアルフィードバック制御方法。
In a method of performing feedback control of a link mechanism having a multi-joint based on information obtained by performing image processing on an image acquired by an imaging device,
Based on the target position and orientation of the link mechanism, the feedforward control term and the predictive control term are used, and the Jacobian matrix describing the relationship between the variation of the position and orientation of the link mechanism and the variation of the joint angle is estimated from the tracking error. An adaptive visual feedback control method characterized in that a control command value is obtained by each control term set using an estimated Jacobian matrix and its pseudo inverse matrix .
当該リンク機構の位置姿勢の時間微分値と関節の駆動角速度を用い、ヤコビアン行列の時間差分項の分母に1より小さい定数を加えた修正した式に基づいて当該ヤコビアン行列を推定することを特徴とする請求項1記載の適応型ビジュアルフィードバック制御方法。  Using the time differential value of the position and orientation of the link mechanism and the driving angular velocity of the joint, and estimating the Jacobian matrix based on a modified formula obtained by adding a constant smaller than 1 to the denominator of the time difference term of the Jacobian matrix. The adaptive visual feedback control method according to claim 1.
JP2005141672A 2005-05-13 2005-05-13 Adaptive visual feedback control method Expired - Fee Related JP4222338B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005141672A JP4222338B2 (en) 2005-05-13 2005-05-13 Adaptive visual feedback control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005141672A JP4222338B2 (en) 2005-05-13 2005-05-13 Adaptive visual feedback control method

Publications (2)

Publication Number Publication Date
JP2006318301A JP2006318301A (en) 2006-11-24
JP4222338B2 true JP4222338B2 (en) 2009-02-12

Family

ID=37538909

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005141672A Expired - Fee Related JP4222338B2 (en) 2005-05-13 2005-05-13 Adaptive visual feedback control method

Country Status (1)

Country Link
JP (1) JP4222338B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577399B2 (en) 2019-01-30 2023-02-14 Kabushiki Kaisha Yaskawa Denki Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101396830A (en) * 2007-09-29 2009-04-01 株式会社Ihi Robot control method and robot
JP2014140941A (en) * 2013-01-25 2014-08-07 Seiko Epson Corp Robot control system, robot, robot control method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11577399B2 (en) 2019-01-30 2023-02-14 Kabushiki Kaisha Yaskawa Denki Robot system, method for controlling robot, robot controller, and non-transitory computer-readable storage medium

Also Published As

Publication number Publication date
JP2006318301A (en) 2006-11-24

Similar Documents

Publication Publication Date Title
JP6963748B2 (en) Robot system and robot system control method
EP2835228B1 (en) Robot apparatus and robot controlling method
JP5448326B2 (en) Gripping device and gripping device control method
US9221176B2 (en) Robot system and method for controlling the same
JP6700669B2 (en) Control method, robot device, program, recording medium, and article manufacturing method
US10456917B2 (en) Robot system including a plurality of robots, robot controller and robot control method
JP5114019B2 (en) Method for controlling the trajectory of an effector
JP7122821B2 (en) Robot system and robot control method
JP2019014030A (en) Control device for robot, robot, robot system, and calibration method for camera
JP2007011978A (en) Motion controller for robot
KR20180038479A (en) Robot system
JP2007076807A (en) Power assist device and its adaptive model prediction control method
JP2008302496A (en) Device and method for controlling robot arm, robot, and control program of the robot arm
JP2006099474A (en) Method for controlling robot locus
JP4976883B2 (en) Manipulator system
JP2013049102A (en) Robot control device and method of determining robot attitude
JP5223407B2 (en) Redundant robot teaching method
Luo et al. Predictive seam tracking with iteratively learned feedforward compensation for high-precision robotic laser welding
JP6322949B2 (en) Robot control apparatus, robot system, robot, robot control method, and robot control program
Vahrenkamp et al. Visual servoing for dual arm motions on a humanoid robot
JP4222338B2 (en) Adaptive visual feedback control method
WO2021166842A1 (en) Deburring device and control system
JP2005007486A (en) Gripping control device of robot hand
US11878423B2 (en) Robot system
US11964391B2 (en) Robot system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080520

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080716

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081110

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111128

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121128

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131128

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees