JP6485620B2 - Robot control system and robot control method - Google Patents
Robot control system and robot control method Download PDFInfo
- Publication number
- JP6485620B2 JP6485620B2 JP2014179563A JP2014179563A JP6485620B2 JP 6485620 B2 JP6485620 B2 JP 6485620B2 JP 2014179563 A JP2014179563 A JP 2014179563A JP 2014179563 A JP2014179563 A JP 2014179563A JP 6485620 B2 JP6485620 B2 JP 6485620B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- hand
- error
- hand portion
- target position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、先端部の手先を移動可能に構成された産業用ロボットの手先位置および姿勢の制御システムと制御方法に関するものである。特に、カメラなどで計測されたロボットの情報に基づいて、ロボットの手先の位置を制御するロボット制御システムおよびロボット制御方法に関するものである。 The present invention relates to a control system and control method for the position and orientation of a hand of an industrial robot configured to be able to move the hand of a tip. In particular, the present invention relates to a robot control system and a robot control method for controlling the position of the hand of the robot based on information on the robot measured by a camera or the like.
下記特許文献1には、カメラによりワークおよび部品が撮像され、その画像に基づいて視覚認識装置によりワークおよび部品のカメラ座標値が算出され、この算出されたカメラ座標値と視覚認識装置に予め格納されているワークおよび部品の正規のカメラ座標値とが比較されてワークおよび部品の位置ずれ量が算出され、これがカメラ座標系からロボット座標系に変換され、この変換された位置ずれ量に基づいてロボットが制御される方法が開示されている。 In Patent Document 1 below, a work and a part are imaged by a camera, a camera coordinate value of the work and the part is calculated by a visual recognition device based on the image, and the calculated camera coordinate value and the visual recognition device are stored in advance. Compared to the regular camera coordinate values of the workpiece and part being used, the amount of displacement of the workpiece and part is calculated, and this is converted from the camera coordinate system to the robot coordinate system. Based on this converted amount of displacement A method by which a robot is controlled is disclosed.
しかしながら、前記特許文献1に開示されたようなビジュアルフィードバック制御では、ロボットの最終的な手先の位置および姿勢の精度を向上させるためには、ロボットとカメラとを高精度にキャリブレーションする必要がある。これは、カメラの内部および外部パラメータの設定誤差、カメラ座標系からロボット座標系への変換時の誤差、およびロボットの実際の手先位置と測定されたロボットの手先位置との誤差が順次に上乗せされるためである。 However, in the visual feedback control disclosed in Patent Document 1, in order to improve the accuracy of the final hand position and posture of the robot, it is necessary to calibrate the robot and the camera with high accuracy. . This is because the setting error of the camera internal and external parameters, the error when converting from the camera coordinate system to the robot coordinate system, and the error between the actual hand position of the robot and the measured robot hand position are sequentially added. Because.
ロボットとカメラとのキャリブレーションを高精度に行うには、時間がかかったり、コストが高くなったりしてしまう。また、現在では、位置制御や速度制御を用いた産業用ロボットが主流となっており、このような既存のロボットに適用できることが望まれている。 It takes time and costs to calibrate the robot and camera with high accuracy. At present, industrial robots using position control and speed control are mainstream, and it is desired to be applicable to such existing robots.
本発明が解決しようとする課題は、ロボットおよびカメラのキャリブレーションにかかる時間やコストを低減することができ、かつ既存の産業用ロボットにも容易に適用可能なロボット制御システムおよびロボット制御方法を提供することにある。 The problem to be solved by the present invention is to provide a robot control system and a robot control method that can reduce the time and cost required for calibration of robots and cameras, and can be easily applied to existing industrial robots. There is to do.
本発明は、前記課題を解決するためになされたもので、請求項1に記載の発明は、手先部を有し、この手先部を移動させるアームを有するロボットと、前記手先部の位置と、前記手先部の移動先である目標位置とを検出する外界センサと、前記アームを計測して前記手先部の位置を検出する内界センサと、前記外界センサで検出された前記手先部の位置と、前記外界センサで検出された前記手先部の目標位置との誤差を算出し、この誤差を、カメラ座標系からロボット座標系へ変換後、前記内界センサにより検出された前記手先部の位置に加えることで、前記手先部の仮想目標位置を設定し、設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御手段とを備え、前記制御手段は、前記仮想目標位置を次式に設定することを特徴とするロボット制御システムである。
請求項2に記載の発明は、手先部とこの手先部を移動させるアームとを有するロボットの制御方法であって、前記手先部の位置と前記手先部の移動先である目標位置とを検出する位置検出工程と、前記アームを計測して前記手先部の位置を検出する手先検出工程と、前記位置検出工程で検出された前記手先部の位置と、前記位置検出工程で検出された前記手先部の目標位置との誤差を算出し、この誤差をカメラ座標系からロボット座標系へ変換する誤差算出工程と、前記手先検出工程にて検出された前記手先部の位置に前記誤差算出工程で算出した誤差を加えることで、前記手先部の仮想目標位置を設定する位置設定工程と、前記位置設定工程にて設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御工程とを含み、前記位置設定工程では、前記仮想目標位置を次式に設定することを特徴とするロボット制御方法である。
さらに、請求項3に記載の発明は、前記位置検出工程と、前記手先検出工程と、前記誤差算出工程と、前記位置設定工程と、前記制御工程とを順次に繰り返し実行するか、または、前記手先検出工程と、前記位置検出工程と、前記誤差算出工程と、前記位置設定工程と、前記制御工程とを順次に繰り返し実行することを特徴とする請求項2に記載のロボット制御方法である。
Furthermore, the invention according to
従来のビジュアルフィードバック制御では、外界センサ(たとえばカメラ)とロボットとのキャリブレーション誤差が、ロボットの手先部の位置と目標位置との間の最終的な誤差に直接影響するため、ロボットとカメラとのキャリブレーションを高精度に行う必要があった。しかしながら、請求項1に記載の発明および請求項2に記載の発明によれば、内界センサにより検出されたロボットの手先部の位置に、外界センサにより検出された手先部の位置と外界センサにより検出された手先部の目標位置との誤差を加えて設定した仮想目標位置に、手先部を移動させることができる。これにより、外界センサとロボットとのキャリブレーション誤差が、ロボットの手先部の位置と目標位置との間の最終的な誤差に直接影響しないようにすることができ、これによりロボットとカメラとのキャリブレーションにかかる時間やコストを低減することができる。また、請求項1に記載の発明および請求項2に記載の発明によれば、上述した制御によりロボットを制御できるため、既存の産業用ロボットに実装されているコントローラにも容易に適用することができ、工場などで稼動している既存のロボットにも直接適用することができ、利用範囲を広げることができる。
In conventional visual feedback control, the calibration error between the external sensor (for example, camera) and the robot directly affects the final error between the robot's hand position and the target position. It was necessary to perform calibration with high accuracy. However, according to the invention described in claim 1 and the invention described in
さらに、請求項3に記載の発明によれば、各工程を順次に繰り返すことで、ロボットの手先部の位置と目標位置との間の最終的な誤差を小さくすることができ、より高精度な制御を行うことができる。
Furthermore, according to the invention described in
以下、本発明の具体的実施例を図面に基づいて詳細に説明する。 Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.
図1は、本発明のロボット制御システムおよびロボット制御方法が適用されるロボットの一例を示す概略斜視図である。図2は、本発明のロボット制御システムの一実施例を示す概略ブロック図である。本実施例のロボット制御システムは、ロボット1と、外界センサ2と、内界センサ3と、センサ2,3からの検出信号に基づきロボット1を制御できる制御手段4とを主要部として備える。以下では、ロボット1は、工場などで用いられている産業用ロボットとされ、この産業用ロボットに本実施例のロボット制御システムが適用される場合について説明する。
FIG. 1 is a schematic perspective view showing an example of a robot to which the robot control system and the robot control method of the present invention are applied. FIG. 2 is a schematic block diagram showing an embodiment of the robot control system of the present invention. The robot control system of this embodiment includes a robot 1, an
ロボット1は、土台5と、土台5に回転自在に設けられるアーム6と、アーム6に設けられる手先部7とを有して構成される。アーム6は、複数のリンク棒8と、隣接するリンク棒8,8同士を互いに回転自在に接続する関節9とを有する。本実施例のアーム6は、3本のリンク棒8を有し、隣接するリンク棒8,8同士が関節9を介して互いに回転自在に接続される。アーム6は、基端部が関節9を介して土台5に回転自在に接続されて外方へ延出され、先端に手先部7が固定される。各関節9には、モータ10が設けられており、このモータ10を駆動させることで、関節9を回転させることができ、ひいてはリンク棒8を回転させることができる。なお、図1に示される座標系XYZは、3次元のロボット座標系とされる。
The robot 1 includes a
外界センサ2は、ロボット1の手先部7の位置と、ロボット1の手先部7の移動先である目標位置とを検出するものである。外界センサ2は、本実施例ではカメラとされる。本実施例では、カメラ2は2台用いられ、それらのカメラ2は、像面IM1,IM2同士が互いに直交するように配置される。
The
具体的には、一方のカメラ2は、ロボット座標系のYZ平面を撮影できるように配置され、他方のカメラ2は、ロボット座標系のZX平面を撮影できるように配置される。なお、図1に示されるように、一方のカメラ2には、互いに直交するU1軸、V1軸およびW1軸からなる3次元のカメラ座標系が設けられ、他方のカメラ2には、互いに直交するU2軸、V2軸およびW2軸からなる3次元のカメラ座標系が設けられる。各カメラ2は、前述したように像面IM1,IM2同士が互いに直交するように配置され、ロボット1の手先部7の現在の位置と、手先部7の移動先である目標位置とを撮影することができる。
Specifically, one
内界センサ3は、ロボット1のアーム6を計測して手先部7の位置を検出するものである。内界センサ3は、本実施例ではエンコーダとされ、各関節9に設けられる。本実施例のエンコーダ3は、モータ10の回転位置を検出し、この検出結果から現在の手先部7の位置を求めることができる。
The
制御手段4は、カメラ2で検出されたロボット1の手先部7の位置と、カメラ2で検出されたロボット1の手先部7の移動先である目標位置との誤差を算出し、この誤差を、カメラ座標系からロボット座標系へ変換するものである。制御手段4は、ロボット1の手先部7の真の位置と、カメラ2により検出されたロボット1の手先部7の位置との手先誤差を算出することができる。制御手段4は、カメラ2に接続されており、これらのカメラ2からロボット1の手先部7の位置情報を取得することができる。この取得したロボット1の手先部7の位置と、ロボット1の手先部7の真の位置との誤差である手先誤差を、制御手段4により算出することができる。ここで、手先誤差について説明する。カメラ2からロボット1の手先部7をとらえたときには、カメラ2のひずみなどが原因で、ロボット1の手先部7の実際の位置である真の位置との間に誤差が生じることになり、これが手先誤差となる。
The control means 4 calculates an error between the position of the
また、制御手段4は、ロボット1の手先部7の真の目標位置と、カメラ2により検出されたロボット1の手先部7の目標位置との目標誤差を算出することができる。制御手段4は、前述したようにカメラ2に接続されており、これらのカメラ2からのロボット1の手先部7の目標位置と、ロボット1の手先部7の真の目標位置との誤差である目標誤差を算出できる。この目標誤差は、カメラ2のひずみなどの原因により、カメラ2からロボット1の手先部7の目標位置をとらえたときに、ロボット1の手先部7の実際の目標位置である真の目標位置との間に生じる誤差である。
Further, the control means 4 can calculate a target error between the true target position of the
具体的には、次のとおりである。ロボット1の手先部7の真の位置をx=(x,y,z)、ロボット1の手先部7の真の目標位置をxd=(xd,yd,zd)、カメラ2で計測されたロボット1の手先部7の位置をxc=(xc,yc,zc)、カメラ2で計測されたロボット1の手先部7の目標位置をxcd=(xcd,ycd,zcd)とする。カメラ2で計測されたロボット1の手先部7の位置およびカメラ2で計測されたロボット1の手先部7の目標位置は、キャリブレーション誤差を含んでいる。このとき、カメラ2のキャリブレーションによる誤差Δxc、すなわち真値からのずれである手先誤差および目標誤差は、以下の式で表される。なお、以下の式において、左肩に設けられた「w」は、基準となるワールド座標系からみたことを示している。本実施例では、ロボット座標系をワールド座標系としている。また、左肩に設けられた「c」は、カメラ座標系からみたことを示している。
Specifically, it is as follows. The true position of the
ここで、チルダは誤差を含んだ値を示しており、その他は以下のとおりである。
数1、数2および数3においては、手先誤差および目標誤差は、カメラ座標系からロボット座標系に変換されている。一方、エンコーダ3で計測されたロボット1の手先部7の現在の位置をxm=(xm,ym,zm)とすると、ロボット1のキャリブレーションによる誤差Δxm、すなわち真値からのずれは、以下の式で表される。
In
ここで、f(q)は、各関節角度からロボット1の手先部7の位置へ変換する関数を示している。なお、ロボット1の幾何情報が正確、かつ各リンク棒8が十分な剛性を有する場合には、Δxmはゼロに近づくことになる。同様に、エンコーダ3で計測されたロボット1の手先部7の目標位置をxmd=(xmd,ymd,zmd)として、目標位置近傍における誤差、すなわち真値からのずれは、以下の式で定義される。
Here, f (q) represents a function for converting each joint angle to the position of the
このように、エンコーダ3で計測されたロボット1の手先部7の位置およびエンコーダ3で計測されたロボット1の手先部7の目標位置と、それぞれの真値との間には、リンク棒8の歪みや弛みなどが原因とされる誤差が生じる。
As described above, the
次に、ロボット1の手先部7の位置および姿勢の制御時に生じる誤差は、以下の式で定義される。これは、静止摩擦や重力などの影響による誤差とされる。
Next, an error that occurs when controlling the position and posture of the
ここでは、以下のとおりである。
数8で示される誤差は、静止摩擦などの影響が小さく、ロボット1の各関節角が目標位置に正確に制御可能であるとき、Δxm2=0となる。ここでは、産業用ロボットを対象とするため、この値はゼロとする。ただし、式の展開中では記述することとする。これにより、ロボット1に後述の目標位置を与えた際、制御後のロボット1の手先部7の位置は、数8より以下のようになる。
The error expressed by
また、制御手段4は、エンコーダ3により検出されたロボット1の手先部7の位置に、前述したように座標系が変換された誤差を加えることで、ロボット1の手先部7の仮想目標位置を設定することができる。制御手段4は、エンコーダ3に接続されており、このエンコーダ3からのロボット1の手先部7の位置情報を取得することができる。そして、エンコーダ3からのロボット1の手先部7の位置に前述した誤差を加えることで、ロボット1の手先部7の仮想目標位置を設定することができる。
Further, the control means 4 adds the error obtained by converting the coordinate system as described above to the position of the
具体的には、次のとおりである。仮想目標位置xvdを以下のように設定し、数1、数2および数4により、仮想目標位置xvdは以下のようになる。 Specifically, it is as follows. The virtual target position x vd is set as follows, and the virtual target position x vd is as follows according to Equations 1, 2 and 4.
さらに、制御手段4は、設定された仮想目標位置へロボット1の手先部7が移動するように、ロボット1のアーム6を制御することができる。制御手段4は、モータ10と接続されており、このモータ10を制御することで、関節9ひいてはリンク棒8を回転させて、ロボット1の手先部7を設定された仮想目標位置へ到達させることができる。
Furthermore, the control means 4 can control the
次に、本実施例のロボット1を用いたロボット制御方法について説明する。図3は、本実施例のロボットの制御の手順の一例を示すフローチャートである。この図3に示されるように、本実施例では、前述した制御を用いて、位置検出工程S1、手先検出工程S2、誤差算出工程S3、位置設定工程S4および制御工程S5が順次に実行される。 Next, a robot control method using the robot 1 of this embodiment will be described. FIG. 3 is a flowchart illustrating an example of a procedure for controlling the robot according to the present embodiment. As shown in FIG. 3, in this embodiment, the position detection step S1, the hand detection step S2, the error calculation step S3, the position setting step S4, and the control step S5 are sequentially executed using the control described above. .
具体的には、まずロボット1の手先部7の位置とロボット1の手先部7の移動先である目標位置とを検出する(ステップS1)。この検出は、カメラ2によりなされる。次に、ロボット1のアーム6を計測して、ロボット1の手先部7の位置を検出する(ステップS2)。この検出は、エンコーダ3によりなされる。そして、位置検出工程S1にて検出されたロボット1の手先部7の位置と、位置検出工程S1にて検出されたロボット1の手先部7の目標位置との誤差を算出し、この誤差をカメラ座標系からロボット座標系へ変換する(ステップS3)。
Specifically, first, the position of the
カメラ座標系からロボット座標系へ変換された前記誤差を、手先検出工程S2にて検出されたロボット1の手先部7の位置に加えることで、ロボット1の手先部7の仮想目標位置を設定する(ステップS4)。設定された仮想目標位置へ、ロボット1の手先部7が移動するようにアーム6を制御する(ステップS5)。
The virtual target position of the
ところで、本実施例では、ロボット1の位置について説明したが、本実施例の手法は、ロボット1の姿勢にも応用することができる。具体的には、次のとおりである。 By the way, although the position of the robot 1 has been described in the present embodiment, the method of the present embodiment can also be applied to the posture of the robot 1. Specifically, it is as follows.
ロボット1の手先部7の真の姿勢をR、ロボット1の手先部7の真の目標姿勢をRd、カメラ2で計測されたロボット1の手先部7の姿勢をRca、カメラ2で計測されたロボット1の手先部7の目標姿勢をRcdとする。カメラ2で計測されたロボット1の手先部7の姿勢およびカメラ2で計測されたロボット1の手先部7の目標姿勢は、キャリブレーション誤差を含んでいる。このとき、カメラ2のキャリブレーションによる誤差ΔRc、すなわち真値からのずれは、以下の式で表される。なお、以下の式において、右肩に設けられた「T」は、これの付された行列の転置行列を表している。
Measuring the true attitude of the
ここで、チルダは誤差を含んだ値を示しており、その他は以下のとおりである。
数12、数13および数14においては、各誤差は、カメラ座標系からロボット座標系に変換されている。一方、エンコーダ3で計測されたロボット1の手先部7の現在の姿勢をRmとすると、ロボット1のキャリブレーションによる誤差ΔRm、すなわち真値からのずれは、以下の式で表される。
In Equations 12, 13, and 14, each error is converted from the camera coordinate system to the robot coordinate system. On the other hand, assuming that the current posture of the
ここで、g(q)は、各関節角度からロボット1の手先部7の姿勢へ変換する関数を示している。なお、ロボット1の幾何情報が正確、かつ各リンク棒8が十分な剛性を有する場合には、ΔRmはIに近づくことになる。同様に、エンコーダ3で計測されたロボット1の手先部7の目標姿勢をRmdとして、目標姿勢近傍における誤差、すなわち真値からのずれは、以下の式で定義される。
Here, g (q) represents a function for converting each joint angle to the posture of the
このように、エンコーダ3で計測されたロボット1の手先部7の姿勢およびエンコーダ3で計測されたロボット1の手先部7の目標姿勢と、それぞれの真値との間には、リンク棒8の歪みや弛みなどが原因とされる誤差が生じる。
As described above, the
次に、ロボット1の手先部7の位置および姿勢の制御時に生じる誤差は、以下の式で定義される。これは、静止摩擦や重力などの影響による誤差とされる。
Next, an error that occurs when controlling the position and posture of the
ここでは、以下のとおりである。
数19で示される誤差は、静止摩擦などの影響が小さく、ロボット1の各関節角が目標姿勢に正確に制御可能であるとき、ΔRm2=Iとなる。ここでは、産業用ロボットを対象とするため、この値はIとする。ただし、式の展開中では記述することとする。 The error expressed by Equation 19 is less affected by static friction and the like, and ΔR m2 = I when each joint angle of the robot 1 can be accurately controlled to the target posture. Here, since the target is an industrial robot, this value is I. However, it will be described during expression expansion.
そして、仮想目標姿勢Rvdを以下のように設定する。この仮想目標姿勢Rvdとなるようにアーム6を制御する。
Then, the virtual target posture R vd is set as follows. The
本実施例によれば、各工程を順次に1回実行した場合の最終的な誤差Δxfpは、以下のようになる。 According to the present embodiment, the final error Δx fp when each process is sequentially executed once is as follows.
ここで、Δxm2=0を考慮すれば、誤差Δxfpは、以下のようになる。 Here, when Δx m2 = 0 is considered, the error Δx fp is as follows.
このように、本実施例では、キャリブレーション誤差は、制御前の誤差と制御後の誤差との差分として影響している。これは、制御前と制御後のそれぞれの位置における誤差量が近ければ近いほど、最終的な誤差Δxfpが小さくなることを示す。 As described above, in this embodiment, the calibration error affects the difference between the error before control and the error after control. This indicates that the closer the error amount at each position before and after the control is, the smaller the final error Δx fp is.
これに対し、従来では、ある目標位置を与えた場合の1回の実行による誤差が、本実施例とは異なる。具体的には、次のとおりである。従来では、ロボットの手先部の誤差は、Δxcd+Δxm2となる。従来における最終的な誤差をΔxfとおくと、目標値はカメラで計測した目標位置を用いるので、以下のとおりとなる。 On the other hand, conventionally, an error due to one execution when a certain target position is given is different from the present embodiment. Specifically, it is as follows. Conventionally, the error of the hand portion of the robot is Δx cd + Δx m2 . Placing the final error in the conventional and [Delta] x f, since the target value used target position measured by the camera, becomes as follows.
ここで、数2を用いることで、Δxfは以下のとおりとなる。
Here, by using
さらに、Δxm2=0を考慮すれば、Δxfは以下のとおりとなる。 Further, if Δx m2 = 0 is considered, Δx f is as follows.
これは、カメラおよびロボットのキャリブレーション誤差の双方が、そのままの形で残っていることを示す。すなわち、カメラおよびロボットのキャリブレーション誤差が、最終的な誤差に直接影響している。従って、ロボットおよびカメラのキャリブレーションを高精度に行わなければならなかった。しかしながら、本実施例では、前述した数23のような式で表されるため、カメラ2およびロボット1のキャリブレーション誤差が直接影響することがなく、カメラ2およびロボット1のキャリブレーションにかかる時間やコストを低減することができる。
This indicates that both the camera and robot calibration errors remain intact. That is, camera and robot calibration errors directly affect the final error. Therefore, the robot and camera must be calibrated with high accuracy. However, in the present embodiment, since it is expressed by the above equation 23, the calibration error of the
また、本実施例によれば、姿勢制御では、位置制御の場合と同様に、その姿勢制御を1回実行した場合の最終的な誤差ΔRfpは、以下のようになる。 Further, according to the present embodiment, in the posture control, as in the case of the position control, the final error ΔR fp when the posture control is executed once is as follows.
ここで、ΔRm2=Iとすれば、誤差ΔRfpは以下のとおりとなる。 Here, if ΔR m2 = I, the error ΔR fp is as follows.
このように、姿勢の誤差についても位置の場合と同様に、実行前後の誤差同士の相体量が最終的な誤差として残っていることが分かる。 As described above, it can be seen that, as for the position error, as in the case of the position, the combined amount of the errors before and after the execution remains as the final error.
これに対し、従来では、最終的な誤差ΔRfが以下のとおりとなる。 On the other hand, in the prior art, the final error ΔR f is as follows.
ここで、位置制御の場合と同様に、ΔRm2=Iとすれば、以下のとおりとなる。 Here, as in the case of position control, if ΔR m2 = I, the result is as follows.
このように、従来では、位置制御の場合と同様に、カメラおよびロボットのキャリブレーション誤差がそのまま残っている。 Thus, conventionally, the calibration error of the camera and the robot remains as it is, as in the case of position control.
また、本実施例によれば、各工程を順次に繰り返し実行することができる。すなわち、制御工程S5終了後、その状態において再び位置検出工程S1を行い、そして残りの各工程を実行する。この繰り返し回数は、適宜に変更可能とされる。具体的には、以下の条件を満たす場合において繰り返し実行する。ここで、ロボット1の実行前の手先部7の位置をxα、ロボット1の実行後の手先部7の位置をxβとすると、条件は以下のとおりである。
In addition, according to the present embodiment, each process can be repeatedly executed sequentially. That is, after completion of the control step S5, the position detection step S1 is performed again in that state, and the remaining steps are executed. The number of repetitions can be changed as appropriate. Specifically, it is repeatedly executed when the following conditions are satisfied. Here, if the position of the
この条件を満たす場合において繰り返し実行することで、より高精度な制御を行うことができる。すなわち、各工程を繰り返すごとに、真の目標位置に近付くことになり、精度を向上させることができる。これは、ロボット1の実行前の手先部7の位置と目標位置との距離が、場所によるセンサの計測誤差に比べて大きい場合を示す。つまり、繰り返し実行することで、センサの計測誤差の非線形成分と同等の精度を実現することが可能となるということが分かる。さらに、非線形成分についても、制御前と制御後との位置が近いほど誤差量は減少し、繰り返すごとに精度を高めることができる。
By executing repeatedly when this condition is satisfied, more accurate control can be performed. That is, each time each process is repeated, the true target position is approached, and the accuracy can be improved. This shows a case where the distance between the position of the
また、本実施例によれば、姿勢制御は、位置制御の場合と同様に、その姿勢制御を繰り返し実行することができる。具体的には、ロボット1の実行前の手先部7の姿勢をRα、実行後のロボット1の手先部7の姿勢をRβとすると、繰り返し実行することで誤差が減少し、目標値に収束するための条件は、以下のとおりになる。
Further, according to the present embodiment, the posture control can be repeatedly executed as in the case of the position control. Specifically, assuming that the posture of the
この条件を満たす場合に、繰り返し実行することで、目標値へ収束させることができる。この条件の性質は、位置制御の場合の収束条件である数31と同様である。 When this condition is satisfied, it can be converged to the target value by repeatedly executing. The nature of this condition is the same as Equation 31 which is the convergence condition in the case of position control.
さらに、本実施例によれば、上述した制御によりロボット1を制御できるため、既存の産業用ロボットに実装されているコントローラ(制御手段)に、ソフトウェアの変更箇所を抑制しつつ、容易に適用することができる。すなわち、工場などで稼動している既存のロボットに、ハードウェアやソフトウェアの変更箇所を抑制しつつ、直接適用することができ、利用範囲を広げることができる。 Furthermore, according to the present embodiment, since the robot 1 can be controlled by the above-described control, it can be easily applied to a controller (control means) mounted on an existing industrial robot while suppressing a software change point. be able to. That is, it can be applied directly to an existing robot operating in a factory or the like while suppressing changes in hardware and software, and the range of use can be expanded.
本発明のロボット制御システムおよびロボット制御方法は、前記実施例の構成に限らず、適宜変更可能である。たとえば、前記実施例では、位置検出工程S1、手先検出工程S2、誤差算出工程S3、位置設定工程S4および制御工程S5が順次に実行されたが、これに限定されるものではなく、手先検出工程、位置検出工程、誤差算出工程、位置設定工程および制御工程を順次に実行してもよい。また、前記実施例では、ロボット1は、3本のリンク棒8を有していたが、これに限定されるものではなく、適宜に変更可能である。この場合、関節9の数も、リンク棒8の数に合わせて、適宜に変更可能である。さらに、前記実施例では、カメラ2は2台とされたが、これに限定されるものではなく、3台以上としてもよい。
The robot control system and the robot control method of the present invention are not limited to the configuration of the above-described embodiment, and can be changed as appropriate. For example, in the embodiment, the position detection step S1, the hand detection step S2, the error calculation step S3, the position setting step S4, and the control step S5 are sequentially performed. However, the present invention is not limited to this, and the hand detection step The position detection process, the error calculation process, the position setting process, and the control process may be executed sequentially. Moreover, in the said Example, although the robot 1 had the three
1 ロボット
2 外界センサ(カメラ)
3 内界センサ(エンコーダ)
4 制御手段
6 アーム
7 手先部
S1 位置検出工程
S2 手先検出工程
S3 誤差算出工程
S4 位置設定工程
S5 制御工程
1
3 Internal sensor (encoder)
4 Control means 6
Claims (3)
前記手先部の位置と、前記手先部の移動先である目標位置とを検出する外界センサと、
前記アームを計測して前記手先部の位置を検出する内界センサと、
前記外界センサで検出された前記手先部の位置と、前記外界センサで検出された前記手先部の目標位置との誤差を算出し、この誤差を、カメラ座標系からロボット座標系へ変換後、前記内界センサにより検出された前記手先部の位置に加えることで、前記手先部の仮想目標位置を設定し、設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御手段とを備え、
前記制御手段は、前記仮想目標位置を次式に設定する
ことを特徴とするロボット制御システム。
An external sensor that detects a position of the hand portion and a target position that is a movement destination of the hand portion;
An internal sensor that measures the arm and detects the position of the hand part; and
An error between the position of the hand portion detected by the external sensor and the target position of the hand portion detected by the external sensor is calculated, and after converting this error from the camera coordinate system to the robot coordinate system, Control means for setting the virtual target position of the hand portion by adding to the position of the hand portion detected by the internal sensor and controlling the arm so that the hand portion moves to the set virtual target position It equipped with a door,
The robot control system characterized in that the control means sets the virtual target position to the following equation .
前記手先部の位置と前記手先部の移動先である目標位置とを検出する位置検出工程と、
前記アームを計測して前記手先部の位置を検出する手先検出工程と、
前記位置検出工程で検出された前記手先部の位置と、前記位置検出工程で検出された前記手先部の目標位置との誤差を算出し、この誤差をカメラ座標系からロボット座標系へ変換する誤差算出工程と、
前記手先検出工程にて検出された前記手先部の位置に前記誤差算出工程で算出した誤差を加えることで、前記手先部の仮想目標位置を設定する位置設定工程と、
前記位置設定工程にて設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御工程とを含み、
前記位置設定工程では、前記仮想目標位置を次式に設定する
ことを特徴とするロボット制御方法。
A position detection step of detecting a position of the hand portion and a target position which is a movement destination of the hand portion;
A hand detection step of measuring the arm and detecting the position of the hand part;
An error for calculating the error between the position of the hand portion detected in the position detection step and the target position of the hand portion detected in the position detection step, and converting the error from the camera coordinate system to the robot coordinate system A calculation process;
A position setting step of setting a virtual target position of the hand portion by adding the error calculated in the error calculating step to the position of the hand portion detected in the hand detecting step;
A control step of controlling the arm so that the hand portion moves to the virtual target position set in the position setting step ,
In the position setting step, the virtual target position is set to the following equation .
ことを特徴とする請求項2に記載のロボット制御方法。 The position detection step, the hand detection step, the error calculation step, the position setting step, and the control step are sequentially repeated, or the hand detection step, the position detection step, The robot control method according to claim 2, wherein the error calculation step, the position setting step, and the control step are repeatedly executed sequentially.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014179563A JP6485620B2 (en) | 2014-09-03 | 2014-09-03 | Robot control system and robot control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014179563A JP6485620B2 (en) | 2014-09-03 | 2014-09-03 | Robot control system and robot control method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016052699A JP2016052699A (en) | 2016-04-14 |
JP6485620B2 true JP6485620B2 (en) | 2019-03-20 |
Family
ID=55744138
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014179563A Active JP6485620B2 (en) | 2014-09-03 | 2014-09-03 | Robot control system and robot control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6485620B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7011805B2 (en) * | 2017-09-10 | 2022-01-27 | 株式会社チトセロボティクス | Robot control device and robot control method for setting robot control points |
US10632622B2 (en) * | 2017-12-27 | 2020-04-28 | National Chung Shan Institute Of Science And Technology | Error compensation device and error compensation method |
JP6999444B2 (en) * | 2018-02-16 | 2022-01-18 | 日本電産サンキョー株式会社 | How to calculate the correction value for industrial robots |
JP2019150931A (en) * | 2018-03-05 | 2019-09-12 | パナソニック株式会社 | Robot system, control device, and robot |
JP2020089927A (en) * | 2018-12-03 | 2020-06-11 | 学校法人立命館 | Robot control system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60217418A (en) * | 1984-04-11 | 1985-10-31 | Mitsubishi Electric Corp | Tracking control system of articulated robot |
JP2769947B2 (en) * | 1992-05-15 | 1998-06-25 | 株式会社椿本チエイン | Manipulator position / posture control method |
JP2007011978A (en) * | 2005-07-04 | 2007-01-18 | Toyota Motor Corp | Motion controller for robot |
WO2013176212A1 (en) * | 2012-05-25 | 2013-11-28 | 学校法人立命館 | Robot control device, robot control method, program, recording medium, and robot system |
-
2014
- 2014-09-03 JP JP2014179563A patent/JP6485620B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016052699A (en) | 2016-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6298026B2 (en) | Deflection measurement system for measuring the deflection of articulated robots | |
CN107225569B (en) | Positioning device | |
JP6485620B2 (en) | Robot control system and robot control method | |
US9517563B2 (en) | Robot system using visual feedback | |
JP6174654B2 (en) | Robot system with function to calculate sensor position and orientation | |
JP6572262B2 (en) | Teaching position correcting device and teaching position correcting method | |
JP5321532B2 (en) | Robot calibration apparatus and calibration method | |
JP6661028B2 (en) | Work position correction method | |
JP5618066B2 (en) | Force control robot calibration apparatus and method | |
TWI572468B (en) | Automatic adjustment method of offset automatic adjustment device and robot | |
JP6622765B2 (en) | Robot system | |
CN110253574B (en) | Multi-task mechanical arm pose detection and error compensation method | |
JP6153316B2 (en) | Robot system and control method of robot system | |
JP6922204B2 (en) | Controls, robots and robot systems | |
JP2015066603A (en) | Robot calibration device and robot calibration method, and robot device and robot device control method | |
JP6044511B2 (en) | Robot control method and robot system | |
JP2007011978A (en) | Motion controller for robot | |
JP4302830B2 (en) | Robot calibration method and apparatus | |
KR20110004788A (en) | Method and apparatus for operating a manipulator | |
JP5834545B2 (en) | Robot, robot control apparatus, robot control method, and robot control program | |
JP6568172B2 (en) | ROBOT CONTROL DEVICE, MEASUREMENT SYSTEM, AND CALIBRATION METHOD FOR CALIBRATION | |
JP6039382B2 (en) | Robot system and control method of robot system | |
US20110118876A1 (en) | Teaching line correcting apparatus, teaching line correcting method, and program thereof | |
JP5378908B2 (en) | Robot accuracy adjustment method and robot | |
JP5787646B2 (en) | Robot system and component manufacturing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170804 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20180403 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180403 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180903 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190108 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6485620 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |