JP2016052699A - Robot control system and robot control method - Google Patents

Robot control system and robot control method Download PDF

Info

Publication number
JP2016052699A
JP2016052699A JP2014179563A JP2014179563A JP2016052699A JP 2016052699 A JP2016052699 A JP 2016052699A JP 2014179563 A JP2014179563 A JP 2014179563A JP 2014179563 A JP2014179563 A JP 2014179563A JP 2016052699 A JP2016052699 A JP 2016052699A
Authority
JP
Japan
Prior art keywords
robot
error
hand
hand portion
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014179563A
Other languages
Japanese (ja)
Other versions
JP6485620B2 (en
Inventor
貞夫 川村
Sadao Kawamura
貞夫 川村
晃宏 河村
Akihiro Kawamura
晃宏 河村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ritsumeikan Trust
Original Assignee
Ritsumeikan Trust
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ritsumeikan Trust filed Critical Ritsumeikan Trust
Priority to JP2014179563A priority Critical patent/JP6485620B2/en
Publication of JP2016052699A publication Critical patent/JP2016052699A/en
Application granted granted Critical
Publication of JP6485620B2 publication Critical patent/JP6485620B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a robot control system which can reduce time and cost required for calibration of a robot and a camera, and can be easily applied to an existing industrial robot.SOLUTION: A robot control system comprises a camera 2, an encoder 3 provided in a robot, and control means 4 of the robot. In this system, an error between a position of a fingertip part of a robot detected by the camera 2 and a target position that is a movement destination of the fingertip part of the robot detected by the camera 2 is calculated. After converting the error from a camera coordinate system into a robot coordinate system, a virtual target position of the fingertip part is set by adding the error to the position of the fingertip part of the robot detected by the encoder 3. Then, an arm of the robot is controlled so that the fingertip part of the robot moves to the set virtual target position.SELECTED DRAWING: Figure 2

Description

本発明は、先端部の手先を移動可能に構成された産業用ロボットの手先位置および姿勢の制御システムと制御方法に関するものである。特に、カメラなどで計測されたロボットの情報に基づいて、ロボットの手先の位置を制御するロボット制御システムおよびロボット制御方法に関するものである。   The present invention relates to a control system and control method for the position and orientation of a hand of an industrial robot configured to be able to move the hand of a tip. In particular, the present invention relates to a robot control system and a robot control method for controlling the position of the hand of the robot based on information on the robot measured by a camera or the like.

下記特許文献1には、カメラによりワークおよび部品が撮像され、その画像に基づいて視覚認識装置によりワークおよび部品のカメラ座標値が算出され、この算出されたカメラ座標値と視覚認識装置に予め格納されているワークおよび部品の正規のカメラ座標値とが比較されてワークおよび部品の位置ずれ量が算出され、これがカメラ座標系からロボット座標系に変換され、この変換された位置ずれ量に基づいてロボットが制御される方法が開示されている。   In Patent Document 1 below, a work and a part are imaged by a camera, a camera coordinate value of the work and the part is calculated by a visual recognition device based on the image, and the calculated camera coordinate value and the visual recognition device are stored in advance. Compared to the regular camera coordinate values of the workpiece and part being used, the amount of displacement of the workpiece and part is calculated, and this is converted from the camera coordinate system to the robot coordinate system. Based on this converted amount of displacement A method by which a robot is controlled is disclosed.

特開平5−108126号公報JP-A-5-108126

しかしながら、前記特許文献1に開示されたようなビジュアルフィードバック制御では、ロボットの最終的な手先の位置および姿勢の精度を向上させるためには、ロボットとカメラとを高精度にキャリブレーションする必要がある。これは、カメラの内部および外部パラメータの設定誤差、カメラ座標系からロボット座標系への変換時の誤差、およびロボットの実際の手先位置と測定されたロボットの手先位置との誤差が順次に上乗せされるためである。   However, in the visual feedback control disclosed in Patent Document 1, in order to improve the accuracy of the final hand position and posture of the robot, it is necessary to calibrate the robot and the camera with high accuracy. . This is because the setting error of the camera internal and external parameters, the error when converting from the camera coordinate system to the robot coordinate system, and the error between the actual hand position of the robot and the measured robot hand position are sequentially added. Because.

ロボットとカメラとのキャリブレーションを高精度に行うには、時間がかかったり、コストが高くなったりしてしまう。また、現在では、位置制御や速度制御を用いた産業用ロボットが主流となっており、このような既存のロボットに適用できることが望まれている。   It takes time and costs to calibrate the robot and camera with high accuracy. At present, industrial robots using position control and speed control are mainstream, and it is desired to be applicable to such existing robots.

本発明が解決しようとする課題は、ロボットおよびカメラのキャリブレーションにかかる時間やコストを低減することができ、かつ既存の産業用ロボットにも容易に適用可能なロボット制御システムおよびロボット制御方法を提供することにある。   The problem to be solved by the present invention is to provide a robot control system and a robot control method that can reduce the time and cost required for calibration of robots and cameras, and can be easily applied to existing industrial robots. There is to do.

本発明は、前記課題を解決するためになされたもので、請求項1に記載の発明は、手先部を有し、この手先部を移動させるアームを有するロボットと、前記手先部の位置と、前記手先部の移動先である目標位置とを検出する外界センサと、前記アームを計測して前記手先部の位置を検出する内界センサと、前記外界センサで検出された前記手先部の位置と、前記外界センサで検出された前記手先部の目標位置との誤差を算出し、この誤差を、カメラ座標系からロボット座標系へ変換後、前記内界センサにより検出された前記手先部の位置に加えることで、前記手先部の仮想目標位置を設定し、設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御手段とを備えることを特徴とするロボット制御システムである。   The present invention has been made to solve the above problems, and the invention according to claim 1 includes a robot having a hand portion and an arm for moving the hand portion, and a position of the hand portion. An external sensor that detects a target position that is the movement destination of the hand part, an internal sensor that measures the arm and detects the position of the hand part, and a position of the hand part that is detected by the external sensor; , Calculating an error from the target position of the hand detected by the external sensor, and converting the error from the camera coordinate system to the robot coordinate system to the position of the hand detected by the internal sensor In addition, the robot control system includes: a control unit configured to set a virtual target position of the hand part and to control the arm so that the hand part moves to the set virtual target position. .

請求項2に記載の発明は、手先部とこの手先部を移動させるアームとを有するロボットの制御方法であって、前記手先部の位置と前記手先部の移動先である目標位置とを検出する位置検出工程と、前記アームを計測して前記手先部の位置を検出する手先検出工程と、前記位置検出工程で検出された前記手先部の位置と、前記位置検出工程で検出された前記手先部の目標位置との誤差を算出し、この誤差をカメラ座標系からロボット座標系へ変換する誤差算出工程と、前記手先検出工程にて検出された前記手先部の位置に前記誤差算出工程で算出した誤差を加えることで、前記手先部の仮想目標位置を設定する位置設定工程と、前記位置設定工程にて設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御工程とを含むことを特徴とするロボット制御方法である。   The invention according to claim 2 is a control method of a robot having a hand part and an arm that moves the hand part, and detects a position of the hand part and a target position that is a movement destination of the hand part. A position detection step, a hand detection step of measuring the arm to detect the position of the hand portion, a position of the hand portion detected in the position detection step, and the hand portion detected in the position detection step And calculating the error from the camera coordinate system to the robot coordinate system, and calculating the error in the position of the hand portion detected in the hand detection process. A position setting step for setting a virtual target position of the hand portion by adding an error; and a control step for controlling the arm so that the hand portion moves to the virtual target position set in the position setting step; The A robot control method according to claim Mukoto.

さらに、請求項3に記載の発明は、前記位置検出工程と、前記手先検出工程と、前記誤差算出工程と、前記位置設定工程と、前記制御工程とを順次に繰り返し実行するか、または、前記手先検出工程と、前記位置検出工程と、前記誤差算出工程と、前記位置設定工程と、前記制御工程とを順次に繰り返し実行することを特徴とする請求項2に記載のロボット制御方法である。   Furthermore, the invention according to claim 3 repeatedly executes the position detection step, the hand detection step, the error calculation step, the position setting step, and the control step in sequence, or 3. The robot control method according to claim 2, wherein the hand detection step, the position detection step, the error calculation step, the position setting step, and the control step are repeatedly executed in order.

従来のビジュアルフィードバック制御では、外界センサ(たとえばカメラ)とロボットとのキャリブレーション誤差が、ロボットの手先部の位置と目標位置との間の最終的な誤差に直接影響するため、ロボットとカメラとのキャリブレーションを高精度に行う必要があった。しかしながら、請求項1に記載の発明および請求項2に記載の発明によれば、内界センサにより検出されたロボットの手先部の位置に、外界センサにより検出された手先部の位置と外界センサにより検出された手先部の目標位置との誤差を加えて設定した仮想目標位置に、手先部を移動させることができる。これにより、外界センサとロボットとのキャリブレーション誤差が、ロボットの手先部の位置と目標位置との間の最終的な誤差に直接影響しないようにすることができ、これによりロボットとカメラとのキャリブレーションにかかる時間やコストを低減することができる。また、請求項1に記載の発明および請求項2に記載の発明によれば、上述した制御によりロボットを制御できるため、既存の産業用ロボットに実装されているコントローラにも容易に適用することができ、工場などで稼動している既存のロボットにも直接適用することができ、利用範囲を広げることができる。   In conventional visual feedback control, the calibration error between the external sensor (for example, camera) and the robot directly affects the final error between the robot's hand position and the target position. It was necessary to perform calibration with high accuracy. However, according to the invention described in claim 1 and the invention described in claim 2, the position of the hand portion detected by the external sensor and the position of the hand portion detected by the external sensor are added to the position of the hand portion of the robot detected by the internal sensor. The hand part can be moved to a virtual target position set by adding an error from the detected target position of the hand part. This ensures that calibration errors between the external sensor and the robot do not directly affect the final error between the robot's hand position and the target position. Time and cost can be reduced. In addition, according to the invention described in claim 1 and the invention described in claim 2, since the robot can be controlled by the above-described control, it can be easily applied to a controller mounted on an existing industrial robot. It can be applied directly to existing robots operating in factories and the like, and the range of use can be expanded.

さらに、請求項3に記載の発明によれば、各工程を順次に繰り返すことで、ロボットの手先部の位置と目標位置との間の最終的な誤差を小さくすることができ、より高精度な制御を行うことができる。   Furthermore, according to the invention described in claim 3, by repeating each step in sequence, the final error between the position of the hand portion of the robot and the target position can be reduced, and more accurate. Control can be performed.

本発明が適用されるロボットの一例を示す概略斜視図である。It is a schematic perspective view which shows an example of the robot with which this invention is applied. 本発明のロボット制御システムの一実施例を示す概略ブロック図である。It is a schematic block diagram which shows one Example of the robot control system of this invention. 本発明のロボット制御システムの一実施例における制御の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of control in one Example of the robot control system of this invention.

以下、本発明の具体的実施例を図面に基づいて詳細に説明する。   Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明のロボット制御システムおよびロボット制御方法が適用されるロボットの一例を示す概略斜視図である。図2は、本発明のロボット制御システムの一実施例を示す概略ブロック図である。本実施例のロボット制御システムは、ロボット1と、外界センサ2と、内界センサ3と、センサ2,3からの検出信号に基づきロボット1を制御できる制御手段4とを主要部として備える。以下では、ロボット1は、工場などで用いられている産業用ロボットとされ、この産業用ロボットに本実施例のロボット制御システムが適用される場合について説明する。   FIG. 1 is a schematic perspective view showing an example of a robot to which the robot control system and the robot control method of the present invention are applied. FIG. 2 is a schematic block diagram showing an embodiment of the robot control system of the present invention. The robot control system of this embodiment includes a robot 1, an external sensor 2, an internal sensor 3, and a control unit 4 that can control the robot 1 based on detection signals from the sensors 2 and 3 as main parts. Hereinafter, the robot 1 is an industrial robot used in a factory or the like, and the case where the robot control system of the present embodiment is applied to this industrial robot will be described.

ロボット1は、土台5と、土台5に回転自在に設けられるアーム6と、アーム6に設けられる手先部7とを有して構成される。アーム6は、複数のリンク棒8と、隣接するリンク棒8,8同士を互いに回転自在に接続する関節9とを有する。本実施例のアーム6は、3本のリンク棒8を有し、隣接するリンク棒8,8同士が関節9を介して互いに回転自在に接続される。アーム6は、基端部が関節9を介して土台5に回転自在に接続されて外方へ延出され、先端に手先部7が固定される。各関節9には、モータ10が設けられており、このモータ10を駆動させることで、関節9を回転させることができ、ひいてはリンク棒8を回転させることができる。なお、図1に示される座標系XYZは、3次元のロボット座標系とされる。   The robot 1 includes a base 5, an arm 6 that is rotatably provided on the base 5, and a hand portion 7 that is provided on the arm 6. The arm 6 includes a plurality of link rods 8 and a joint 9 that rotatably connects the adjacent link rods 8 and 8 to each other. The arm 6 of this embodiment has three link rods 8, and the adjacent link rods 8, 8 are connected to each other via a joint 9 so as to be rotatable. The base end portion of the arm 6 is rotatably connected to the base 5 via the joint 9 and extends outward, and the hand portion 7 is fixed to the tip end. Each joint 9 is provided with a motor 10. By driving the motor 10, the joint 9 can be rotated, and thus the link bar 8 can be rotated. The coordinate system XYZ shown in FIG. 1 is a three-dimensional robot coordinate system.

外界センサ2は、ロボット1の手先部7の位置と、ロボット1の手先部7の移動先である目標位置とを検出するものである。外界センサ2は、本実施例ではカメラとされる。本実施例では、カメラ2は2台用いられ、それらのカメラ2は、像面IM1,IM2同士が互いに直交するように配置される。   The external sensor 2 detects the position of the hand portion 7 of the robot 1 and the target position that is the movement destination of the hand portion 7 of the robot 1. The external sensor 2 is a camera in this embodiment. In this embodiment, two cameras 2 are used, and these cameras 2 are arranged so that the image planes IM1 and IM2 are orthogonal to each other.

具体的には、一方のカメラ2は、ロボット座標系のYZ平面を撮影できるように配置され、他方のカメラ2は、ロボット座標系のZX平面を撮影できるように配置される。なお、図1に示されるように、一方のカメラ2には、互いに直交するU1軸、V1軸およびW1軸からなる3次元のカメラ座標系が設けられ、他方のカメラ2には、互いに直交するU2軸、V2軸およびW2軸からなる3次元のカメラ座標系が設けられる。各カメラ2は、前述したように像面IM1,IM2同士が互いに直交するように配置され、ロボット1の手先部7の現在の位置と、手先部7の移動先である目標位置とを撮影することができる。   Specifically, one camera 2 is arranged so as to photograph the YZ plane of the robot coordinate system, and the other camera 2 is arranged so as to photograph the ZX plane of the robot coordinate system. As shown in FIG. 1, one camera 2 is provided with a three-dimensional camera coordinate system including a U1 axis, a V1 axis, and a W1 axis orthogonal to each other, and the other camera 2 is orthogonal to each other. A three-dimensional camera coordinate system including a U2 axis, a V2 axis, and a W2 axis is provided. As described above, each camera 2 is arranged so that the image planes IM1 and IM2 are orthogonal to each other, and images the current position of the hand portion 7 of the robot 1 and the target position that is the movement destination of the hand portion 7. be able to.

内界センサ3は、ロボット1のアーム6を計測して手先部7の位置を検出するものである。内界センサ3は、本実施例ではエンコーダとされ、各関節9に設けられる。本実施例のエンコーダ3は、モータ10の回転位置を検出し、この検出結果から現在の手先部7の位置を求めることができる。   The inner world sensor 3 measures the arm 6 of the robot 1 and detects the position of the hand portion 7. The inner world sensor 3 is an encoder in this embodiment, and is provided at each joint 9. The encoder 3 of the present embodiment can detect the rotational position of the motor 10 and obtain the current position of the hand portion 7 from the detection result.

制御手段4は、カメラ2で検出されたロボット1の手先部7の位置と、カメラ2で検出されたロボット1の手先部7の移動先である目標位置との誤差を算出し、この誤差を、カメラ座標系からロボット座標系へ変換するものである。制御手段4は、ロボット1の手先部7の真の位置と、カメラ2により検出されたロボット1の手先部7の位置との手先誤差を算出することができる。制御手段4は、カメラ2に接続されており、これらのカメラ2からロボット1の手先部7の位置情報を取得することができる。この取得したロボット1の手先部7の位置と、ロボット1の手先部7の真の位置との誤差である手先誤差を、制御手段4により算出することができる。ここで、手先誤差について説明する。カメラ2からロボット1の手先部7をとらえたときには、カメラ2のひずみなどが原因で、ロボット1の手先部7の実際の位置である真の位置との間に誤差が生じることになり、これが手先誤差となる。   The control means 4 calculates an error between the position of the hand portion 7 of the robot 1 detected by the camera 2 and the target position that is the movement destination of the hand portion 7 of the robot 1 detected by the camera 2, and calculates this error. The camera coordinate system is converted to the robot coordinate system. The control means 4 can calculate the hand error between the true position of the hand portion 7 of the robot 1 and the position of the hand portion 7 of the robot 1 detected by the camera 2. The control means 4 is connected to the cameras 2 and can acquire position information of the hand portion 7 of the robot 1 from these cameras 2. The control means 4 can calculate a hand error that is an error between the acquired position of the hand portion 7 of the robot 1 and the true position of the hand portion 7 of the robot 1. Here, the hand error will be described. When the hand portion 7 of the robot 1 is captured from the camera 2, an error occurs between the true position, which is the actual position of the hand portion 7 of the robot 1, due to distortion of the camera 2. It becomes a hand error.

また、制御手段4は、ロボット1の手先部7の真の目標位置と、カメラ2により検出されたロボット1の手先部7の目標位置との目標誤差を算出することができる。制御手段4は、前述したようにカメラ2に接続されており、これらのカメラ2からのロボット1の手先部7の目標位置と、ロボット1の手先部7の真の目標位置との誤差である目標誤差を算出できる。この目標誤差は、カメラ2のひずみなどの原因により、カメラ2からロボット1の手先部7の目標位置をとらえたときに、ロボット1の手先部7の実際の目標位置である真の目標位置との間に生じる誤差である。   Further, the control means 4 can calculate a target error between the true target position of the hand portion 7 of the robot 1 and the target position of the hand portion 7 of the robot 1 detected by the camera 2. The control means 4 is connected to the camera 2 as described above, and is an error between the target position of the hand portion 7 of the robot 1 from the camera 2 and the true target position of the hand portion 7 of the robot 1. A target error can be calculated. This target error is the true target position that is the actual target position of the hand portion 7 of the robot 1 when the target position of the hand portion 7 of the robot 1 is captured from the camera 2 due to the distortion of the camera 2 or the like. It is an error that occurs during

具体的には、次のとおりである。ロボット1の手先部7の真の位置をx=(x,y,z)、ロボット1の手先部7の真の目標位置をx=(x,y,z)、カメラ2で計測されたロボット1の手先部7の位置をx=(x,y,z)、カメラ2で計測されたロボット1の手先部7の目標位置をxcd=(xcd,ycd,zcd)とする。カメラ2で計測されたロボット1の手先部7の位置およびカメラ2で計測されたロボット1の手先部7の目標位置は、キャリブレーション誤差を含んでいる。このとき、カメラ2のキャリブレーションによる誤差Δx、すなわち真値からのずれである手先誤差および目標誤差は、以下の式で表される。なお、以下の式において、左肩に設けられた「w」は、基準となるワールド座標系からみたことを示している。本実施例では、ロボット座標系をワールド座標系としている。また、左肩に設けられた「c」は、カメラ座標系からみたことを示している。 Specifically, it is as follows. The true position of the hand portion 7 of the robot 1 is x = (x, y, z), the true target position of the hand portion 7 of the robot 1 is x d = (x d , y d , z d ), and the camera 2 The measured position of the hand portion 7 of the robot 1 is x c = (x c , y c , z c ), and the target position of the hand portion 7 of the robot 1 measured by the camera 2 is x cd = (x cd , y cd , z cd ). The position of the hand portion 7 of the robot 1 measured by the camera 2 and the target position of the hand portion 7 of the robot 1 measured by the camera 2 include a calibration error. At this time, the error Δx c due to the calibration of the camera 2, that is, the hand error and the target error that are deviations from the true values are expressed by the following equations. In the following expression, “w” provided on the left shoulder indicates that it is viewed from the reference world coordinate system. In this embodiment, the robot coordinate system is the world coordinate system. Further, “c” provided on the left shoulder indicates that viewed from the camera coordinate system.

Figure 2016052699
Figure 2016052699

Figure 2016052699
Figure 2016052699

Figure 2016052699
Figure 2016052699

ここで、チルダは誤差を含んだ値を示しており、その他は以下のとおりである。

Figure 2016052699
Here, the tilde indicates a value including an error, and the others are as follows.
Figure 2016052699

数1、数2および数3においては、手先誤差および目標誤差は、カメラ座標系からロボット座標系に変換されている。一方、エンコーダ3で計測されたロボット1の手先部7の現在の位置をx=(x,y,z)とすると、ロボット1のキャリブレーションによる誤差Δx、すなわち真値からのずれは、以下の式で表される。 In Equations 1, 2, and 3, the hand error and the target error are converted from the camera coordinate system to the robot coordinate system. On the other hand, when the current position of the hand portion 7 of the robot 1 measured by the encoder 3 is x m = (x m , y m , z m ), an error Δx m due to the calibration of the robot 1, that is, from the true value. The deviation is expressed by the following equation.

Figure 2016052699
Figure 2016052699

ここで、f(q)は、各関節角度からロボット1の手先部7の位置へ変換する関数を示している。なお、ロボット1の幾何情報が正確、かつ各リンク棒8が十分な剛性を有する場合には、Δxはゼロに近づくことになる。同様に、エンコーダ3で計測されたロボット1の手先部7の目標位置をxmd=(xmd,ymd,zmd)として、目標位置近傍における誤差、すなわち真値からのずれは、以下の式で定義される。 Here, f (q) represents a function for converting each joint angle to the position of the hand portion 7 of the robot 1. If the geometric information of the robot 1 is accurate and each link bar 8 has sufficient rigidity, Δx m approaches zero. Similarly, assuming that the target position of the hand portion 7 of the robot 1 measured by the encoder 3 is x md = (x md , y md , z md ), the error in the vicinity of the target position, that is, the deviation from the true value is as follows: It is defined by an expression.

Figure 2016052699
Figure 2016052699

Figure 2016052699
Figure 2016052699

このように、エンコーダ3で計測されたロボット1の手先部7の位置およびエンコーダ3で計測されたロボット1の手先部7の目標位置と、それぞれの真値との間には、リンク棒8の歪みや弛みなどが原因とされる誤差が生じる。   As described above, the link rod 8 is positioned between the position of the hand portion 7 of the robot 1 measured by the encoder 3 and the target position of the hand portion 7 of the robot 1 measured by the encoder 3 and the respective true values. An error caused by distortion or slack occurs.

次に、ロボット1の手先部7の位置および姿勢の制御時に生じる誤差は、以下の式で定義される。これは、静止摩擦や重力などの影響による誤差とされる。   Next, an error that occurs when controlling the position and posture of the hand portion 7 of the robot 1 is defined by the following equation. This is an error due to the effects of static friction and gravity.

Figure 2016052699
Figure 2016052699

ここでは、以下のとおりである。

Figure 2016052699
Here, it is as follows.
Figure 2016052699

数8で示される誤差は、静止摩擦などの影響が小さく、ロボット1の各関節角が目標位置に正確に制御可能であるとき、Δxm2=0となる。ここでは、産業用ロボットを対象とするため、この値はゼロとする。ただし、式の展開中では記述することとする。これにより、ロボット1に後述の目標位置を与えた際、制御後のロボット1の手先部7の位置は、数8より以下のようになる。 The error expressed by Equation 8 is less affected by static friction and the like, and Δx m2 = 0 when each joint angle of the robot 1 can be accurately controlled to the target position. Here, since this is an industrial robot, this value is zero. However, it will be described during expression expansion. Thereby, when the target position described later is given to the robot 1, the position of the hand portion 7 of the robot 1 after the control is as follows from Equation 8.

Figure 2016052699
Figure 2016052699

また、制御手段4は、エンコーダ3により検出されたロボット1の手先部7の位置に、前述したように座標系が変換された誤差を加えることで、ロボット1の手先部7の仮想目標位置を設定することができる。制御手段4は、エンコーダ3に接続されており、このエンコーダ3からのロボット1の手先部7の位置情報を取得することができる。そして、エンコーダ3からのロボット1の手先部7の位置に前述した誤差を加えることで、ロボット1の手先部7の仮想目標位置を設定することができる。   Further, the control means 4 adds the error obtained by converting the coordinate system as described above to the position of the hand portion 7 of the robot 1 detected by the encoder 3, thereby obtaining the virtual target position of the hand portion 7 of the robot 1. Can be set. The control means 4 is connected to the encoder 3 and can acquire position information of the hand portion 7 of the robot 1 from the encoder 3. The virtual target position of the hand portion 7 of the robot 1 can be set by adding the error described above to the position of the hand portion 7 of the robot 1 from the encoder 3.

具体的には、次のとおりである。仮想目標位置xvdを以下のように設定し、数1、数2および数4により、仮想目標位置xvdは以下のようになる。 Specifically, it is as follows. The virtual target position x vd is set as follows, and the virtual target position x vd is as follows according to Equations 1, 2 and 4.

Figure 2016052699
Figure 2016052699

さらに、制御手段4は、設定された仮想目標位置へロボット1の手先部7が移動するように、ロボット1のアーム6を制御することができる。制御手段4は、モータ10と接続されており、このモータ10を制御することで、関節9ひいてはリンク棒8を回転させて、ロボット1の手先部7を設定された仮想目標位置へ到達させることができる。   Furthermore, the control means 4 can control the arm 6 of the robot 1 so that the hand portion 7 of the robot 1 moves to the set virtual target position. The control means 4 is connected to the motor 10 and controls the motor 10 to rotate the joint 9 and thus the link rod 8 so that the hand portion 7 of the robot 1 reaches the set virtual target position. Can do.

次に、本実施例のロボット1を用いたロボット制御方法について説明する。図3は、本実施例のロボットの制御の手順の一例を示すフローチャートである。この図3に示されるように、本実施例では、前述した制御を用いて、位置検出工程S1、手先検出工程S2、誤差算出工程S3、位置設定工程S4および制御工程S5が順次に実行される。   Next, a robot control method using the robot 1 of this embodiment will be described. FIG. 3 is a flowchart illustrating an example of a procedure for controlling the robot according to the present embodiment. As shown in FIG. 3, in this embodiment, the position detection step S1, the hand detection step S2, the error calculation step S3, the position setting step S4, and the control step S5 are sequentially executed using the control described above. .

具体的には、まずロボット1の手先部7の位置とロボット1の手先部7の移動先である目標位置とを検出する(ステップS1)。この検出は、カメラ2によりなされる。次に、ロボット1のアーム6を計測して、ロボット1の手先部7の位置を検出する(ステップS2)。この検出は、エンコーダ3によりなされる。そして、位置検出工程S1にて検出されたロボット1の手先部7の位置と、位置検出工程S1にて検出されたロボット1の手先部7の目標位置との誤差を算出し、この誤差をカメラ座標系からロボット座標系へ変換する(ステップS3)。   Specifically, first, the position of the hand portion 7 of the robot 1 and the target position that is the movement destination of the hand portion 7 of the robot 1 are detected (step S1). This detection is performed by the camera 2. Next, the arm 6 of the robot 1 is measured to detect the position of the hand portion 7 of the robot 1 (step S2). This detection is performed by the encoder 3. Then, an error between the position of the hand portion 7 of the robot 1 detected in the position detection step S1 and the target position of the hand portion 7 of the robot 1 detected in the position detection step S1 is calculated, and this error is calculated by the camera. Conversion from the coordinate system to the robot coordinate system is performed (step S3).

カメラ座標系からロボット座標系へ変換された前記誤差を、手先検出工程S2にて検出されたロボット1の手先部7の位置に加えることで、ロボット1の手先部7の仮想目標位置を設定する(ステップS4)。設定された仮想目標位置へ、ロボット1の手先部7が移動するようにアーム6を制御する(ステップS5)。   The virtual target position of the hand portion 7 of the robot 1 is set by adding the error converted from the camera coordinate system to the robot coordinate system to the position of the hand portion 7 of the robot 1 detected in the hand detecting step S2. (Step S4). The arm 6 is controlled so that the hand portion 7 of the robot 1 moves to the set virtual target position (step S5).

ところで、本実施例では、ロボット1の位置について説明したが、本実施例の手法は、ロボット1の姿勢にも応用することができる。具体的には、次のとおりである。   By the way, although the position of the robot 1 has been described in the present embodiment, the method of the present embodiment can also be applied to the posture of the robot 1. Specifically, it is as follows.

ロボット1の手先部7の真の姿勢をR、ロボット1の手先部7の真の目標姿勢をR、カメラ2で計測されたロボット1の手先部7の姿勢をRca、カメラ2で計測されたロボット1の手先部7の目標姿勢をRcdとする。カメラ2で計測されたロボット1の手先部7の姿勢およびカメラ2で計測されたロボット1の手先部7の目標姿勢は、キャリブレーション誤差を含んでいる。このとき、カメラ2のキャリブレーションによる誤差ΔR、すなわち真値からのずれは、以下の式で表される。なお、以下の式において、右肩に設けられた「T」は、これの付された行列の転置行列を表している。 Measuring the true attitude of the end portion 7 of the robot 1 R, the true target position R d of the end portion 7 of the robot 1, the attitude of the end portion 7 of the robot 1 which has been measured by the camera 2 R ca, camera 2 The target posture of the hand portion 7 of the robot 1 that has been made is defined as R cd . The posture of the hand portion 7 of the robot 1 measured by the camera 2 and the target posture of the hand portion 7 of the robot 1 measured by the camera 2 include a calibration error. At this time, the error ΔR c due to the calibration of the camera 2, that is, the deviation from the true value is expressed by the following equation. In the following expression, “T” provided on the right shoulder represents a transposed matrix of the matrix to which this is attached.

Figure 2016052699
Figure 2016052699

Figure 2016052699
Figure 2016052699

Figure 2016052699
Figure 2016052699

ここで、チルダは誤差を含んだ値を示しており、その他は以下のとおりである。

Figure 2016052699
Here, the tilde indicates a value including an error, and the others are as follows.
Figure 2016052699

数12、数13および数14においては、各誤差は、カメラ座標系からロボット座標系に変換されている。一方、エンコーダ3で計測されたロボット1の手先部7の現在の姿勢をRとすると、ロボット1のキャリブレーションによる誤差ΔR、すなわち真値からのずれは、以下の式で表される。 In Equations 12, 13, and 14, each error is converted from the camera coordinate system to the robot coordinate system. On the other hand, assuming that the current posture of the hand portion 7 of the robot 1 measured by the encoder 3 is R m , an error ΔR m due to the calibration of the robot 1, that is, a deviation from the true value is expressed by the following equation.

Figure 2016052699
Figure 2016052699

ここで、g(q)は、各関節角度からロボット1の手先部7の姿勢へ変換する関数を示している。なお、ロボット1の幾何情報が正確、かつ各リンク棒8が十分な剛性を有する場合には、ΔRはIに近づくことになる。同様に、エンコーダ3で計測されたロボット1の手先部7の目標姿勢をRmdとして、目標姿勢近傍における誤差、すなわち真値からのずれは、以下の式で定義される。 Here, g (q) represents a function for converting each joint angle to the posture of the hand portion 7 of the robot 1. If the geometric information of the robot 1 is accurate and each link bar 8 has sufficient rigidity, ΔR m approaches I. Similarly, when the target posture of the hand portion 7 of the robot 1 measured by the encoder 3 is R md , an error in the vicinity of the target posture, that is, a deviation from the true value is defined by the following equation.

Figure 2016052699
Figure 2016052699

Figure 2016052699
Figure 2016052699

このように、エンコーダ3で計測されたロボット1の手先部7の姿勢およびエンコーダ3で計測されたロボット1の手先部7の目標姿勢と、それぞれの真値との間には、リンク棒8の歪みや弛みなどが原因とされる誤差が生じる。   As described above, the link rod 8 has a position between the posture of the hand portion 7 of the robot 1 measured by the encoder 3 and the target posture of the hand portion 7 of the robot 1 measured by the encoder 3 and the respective true values. An error caused by distortion or slack occurs.

次に、ロボット1の手先部7の位置および姿勢の制御時に生じる誤差は、以下の式で定義される。これは、静止摩擦や重力などの影響による誤差とされる。   Next, an error that occurs when controlling the position and posture of the hand portion 7 of the robot 1 is defined by the following equation. This is an error due to the effects of static friction and gravity.

Figure 2016052699
Figure 2016052699

ここでは、以下のとおりである。

Figure 2016052699
Here, it is as follows.
Figure 2016052699

数19で示される誤差は、静止摩擦などの影響が小さく、ロボット1の各関節角が目標姿勢に正確に制御可能であるとき、ΔRm2=Iとなる。ここでは、産業用ロボットを対象とするため、この値はIとする。ただし、式の展開中では記述することとする。 The error expressed by Equation 19 is less affected by static friction and the like, and ΔR m2 = I when each joint angle of the robot 1 can be accurately controlled to the target posture. Here, since the target is an industrial robot, this value is I. However, it will be described during expression expansion.

そして、仮想目標姿勢Rvdを以下のように設定する。この仮想目標姿勢Rvdとなるようにアーム6を制御する。 Then, the virtual target posture R vd is set as follows. The arm 6 is controlled so that the virtual target posture Rvd is obtained.

Figure 2016052699
Figure 2016052699

本実施例によれば、各工程を順次に1回実行した場合の最終的な誤差Δxfpは、以下のようになる。 According to the present embodiment, the final error Δx fp when each process is sequentially executed once is as follows.

Figure 2016052699
Figure 2016052699

ここで、Δxm2=0を考慮すれば、誤差Δxfpは、以下のようになる。 Here, when Δx m2 = 0 is considered, the error Δx fp is as follows.

Figure 2016052699
Figure 2016052699

このように、本実施例では、キャリブレーション誤差は、制御前の誤差と制御後の誤差との差分として影響している。これは、制御前と制御後のそれぞれの位置における誤差量が近ければ近いほど、最終的な誤差Δxfpが小さくなることを示す。 As described above, in this embodiment, the calibration error affects the difference between the error before control and the error after control. This indicates that the closer the error amount at each position before and after the control is, the smaller the final error Δx fp is.

これに対し、従来では、ある目標位置を与えた場合の1回の実行による誤差が、本実施例とは異なる。具体的には、次のとおりである。従来では、ロボットの手先部の誤差は、Δxcd+Δxm2となる。従来における最終的な誤差をΔxとおくと、目標値はカメラで計測した目標位置を用いるので、以下のとおりとなる。 On the other hand, conventionally, an error due to one execution when a certain target position is given is different from the present embodiment. Specifically, it is as follows. Conventionally, the error of the hand portion of the robot is Δx cd + Δx m2 . Placing the final error in the conventional and [Delta] x f, since the target value used target position measured by the camera, becomes as follows.

Figure 2016052699
Figure 2016052699

ここで、数2を用いることで、Δxは以下のとおりとなる。 Here, by using Equation 2, Δx f is as follows.

Figure 2016052699
Figure 2016052699

さらに、Δxm2=0を考慮すれば、Δxは以下のとおりとなる。 Further, if Δx m2 = 0 is considered, Δx f is as follows.

Figure 2016052699
Figure 2016052699

これは、カメラおよびロボットのキャリブレーション誤差の双方が、そのままの形で残っていることを示す。すなわち、カメラおよびロボットのキャリブレーション誤差が、最終的な誤差に直接影響している。従って、ロボットおよびカメラのキャリブレーションを高精度に行わなければならなかった。しかしながら、本実施例では、前述した数23のような式で表されるため、カメラ2およびロボット1のキャリブレーション誤差が直接影響することがなく、カメラ2およびロボット1のキャリブレーションにかかる時間やコストを低減することができる。   This indicates that both the camera and robot calibration errors remain intact. That is, camera and robot calibration errors directly affect the final error. Therefore, the robot and camera must be calibrated with high accuracy. However, in the present embodiment, since it is expressed by the above equation 23, the calibration error of the camera 2 and the robot 1 is not directly affected, and the time required for the calibration of the camera 2 and the robot 1 Cost can be reduced.

また、本実施例によれば、姿勢制御では、位置制御の場合と同様に、その姿勢制御を1回実行した場合の最終的な誤差ΔRfpは、以下のようになる。 Further, according to the present embodiment, in the posture control, as in the case of the position control, the final error ΔR fp when the posture control is executed once is as follows.

Figure 2016052699
Figure 2016052699

ここで、ΔRm2=Iとすれば、誤差ΔRfpは以下のとおりとなる。 Here, if ΔR m2 = I, the error ΔR fp is as follows.

Figure 2016052699
Figure 2016052699

このように、姿勢の誤差についても位置の場合と同様に、実行前後の誤差同士の相体量が最終的な誤差として残っていることが分かる。   As described above, it can be seen that, as for the position error, as in the case of the position, the combined amount of the errors before and after the execution remains as the final error.

これに対し、従来では、最終的な誤差ΔRが以下のとおりとなる。 On the other hand, in the prior art, the final error ΔR f is as follows.

Figure 2016052699
Figure 2016052699

ここで、位置制御の場合と同様に、ΔRm2=Iとすれば、以下のとおりとなる。 Here, as in the case of position control, if ΔR m2 = I, the result is as follows.

Figure 2016052699
Figure 2016052699

このように、従来では、位置制御の場合と同様に、カメラおよびロボットのキャリブレーション誤差がそのまま残っている。   Thus, conventionally, the calibration error of the camera and the robot remains as it is, as in the case of position control.

また、本実施例によれば、各工程を順次に繰り返し実行することができる。すなわち、制御工程S5終了後、その状態において再び位置検出工程S1を行い、そして残りの各工程を実行する。この繰り返し回数は、適宜に変更可能とされる。具体的には、以下の条件を満たす場合において繰り返し実行する。ここで、ロボット1の実行前の手先部7の位置をxα、ロボット1の実行後の手先部7の位置をxβとすると、条件は以下のとおりである。 In addition, according to the present embodiment, each process can be repeatedly executed sequentially. That is, after completion of the control step S5, the position detection step S1 is performed again in that state, and the remaining steps are executed. The number of repetitions can be changed as appropriate. Specifically, it is repeatedly executed when the following conditions are satisfied. Here, if the position of the hand portion 7 before execution of the robot 1 is x α and the position of the hand portion 7 after execution of the robot 1 is x β , the conditions are as follows.

Figure 2016052699
Figure 2016052699

この条件を満たす場合において繰り返し実行することで、より高精度な制御を行うことができる。すなわち、各工程を繰り返すごとに、真の目標位置に近付くことになり、精度を向上させることができる。これは、ロボット1の実行前の手先部7の位置と目標位置との距離が、場所によるセンサの計測誤差に比べて大きい場合を示す。つまり、繰り返し実行することで、センサの計測誤差の非線形成分と同等の精度を実現することが可能となるということが分かる。さらに、非線形成分についても、制御前と制御後との位置が近いほど誤差量は減少し、繰り返すごとに精度を高めることができる。   By executing repeatedly when this condition is satisfied, more accurate control can be performed. That is, each time each process is repeated, the true target position is approached, and the accuracy can be improved. This shows a case where the distance between the position of the hand portion 7 before the execution of the robot 1 and the target position is larger than the measurement error of the sensor depending on the location. In other words, it can be seen that it is possible to realize the same accuracy as the nonlinear component of the sensor measurement error by repeatedly executing. Furthermore, the non-linear component also decreases as the position before and after the control is closer, and the accuracy can be improved with each repetition.

また、本実施例によれば、姿勢制御は、位置制御の場合と同様に、その姿勢制御を繰り返し実行することができる。具体的には、ロボット1の実行前の手先部7の姿勢をRα、実行後のロボット1の手先部7の姿勢をRβとすると、繰り返し実行することで誤差が減少し、目標値に収束するための条件は、以下のとおりになる。 Further, according to the present embodiment, the posture control can be repeatedly executed as in the case of the position control. Specifically, assuming that the posture of the hand portion 7 before execution of the robot 1 is R α , and the posture of the hand portion 7 of the robot 1 after execution is R β , the error is reduced by repeated execution, and the target value is obtained. The conditions for convergence are as follows.

Figure 2016052699
Figure 2016052699

この条件を満たす場合に、繰り返し実行することで、目標値へ収束させることができる。この条件の性質は、位置制御の場合の収束条件である数31と同様である。   When this condition is satisfied, it can be converged to the target value by repeatedly executing. The nature of this condition is the same as Equation 31 which is the convergence condition in the case of position control.

さらに、本実施例によれば、上述した制御によりロボット1を制御できるため、既存の産業用ロボットに実装されているコントローラ(制御手段)に、ソフトウェアの変更箇所を抑制しつつ、容易に適用することができる。すなわち、工場などで稼動している既存のロボットに、ハードウェアやソフトウェアの変更箇所を抑制しつつ、直接適用することができ、利用範囲を広げることができる。   Furthermore, according to the present embodiment, since the robot 1 can be controlled by the above-described control, it can be easily applied to a controller (control means) mounted on an existing industrial robot while suppressing a software change point. be able to. That is, it can be applied directly to an existing robot operating in a factory or the like while suppressing changes in hardware and software, and the range of use can be expanded.

本発明のロボット制御システムおよびロボット制御方法は、前記実施例の構成に限らず、適宜変更可能である。たとえば、前記実施例では、位置検出工程S1、手先検出工程S2、誤差算出工程S3、位置設定工程S4および制御工程S5が順次に実行されたが、これに限定されるものではなく、手先検出工程、位置検出工程、誤差算出工程、位置設定工程および制御工程を順次に実行してもよい。また、前記実施例では、ロボット1は、3本のリンク棒8を有していたが、これに限定されるものではなく、適宜に変更可能である。この場合、関節9の数も、リンク棒8の数に合わせて、適宜に変更可能である。さらに、前記実施例では、カメラ2は2台とされたが、これに限定されるものではなく、3台以上としてもよい。   The robot control system and the robot control method of the present invention are not limited to the configuration of the above-described embodiment, and can be changed as appropriate. For example, in the embodiment, the position detection step S1, the hand detection step S2, the error calculation step S3, the position setting step S4, and the control step S5 are sequentially performed. However, the present invention is not limited to this, and the hand detection step The position detection process, the error calculation process, the position setting process, and the control process may be executed sequentially. Moreover, in the said Example, although the robot 1 had the three link rods 8, it is not limited to this, It can change suitably. In this case, the number of joints 9 can be changed as appropriate in accordance with the number of link bars 8. Furthermore, in the said Example, although the camera 2 was two units, it is not limited to this, It is good also as three units or more.

1 ロボット
2 外界センサ(カメラ)
3 内界センサ(エンコーダ)
4 制御手段
6 アーム
7 手先部
S1 位置検出工程
S2 手先検出工程
S3 誤差算出工程
S4 位置設定工程
S5 制御工程
1 Robot 2 External sensor (camera)
3 Internal sensor (encoder)
4 Control means 6 Arm 7 Hand part S1 Position detection process S2 Hand detection process S3 Error calculation process S4 Position setting process S5 Control process

Claims (3)

手先部を有し、この手先部を移動させるアームを有するロボットと、
前記手先部の位置と、前記手先部の移動先である目標位置とを検出する外界センサと、
前記アームを計測して前記手先部の位置を検出する内界センサと、
前記外界センサで検出された前記手先部の位置と、前記外界センサで検出された前記手先部の目標位置との誤差を算出し、この誤差を、カメラ座標系からロボット座標系へ変換後、前記内界センサにより検出された前記手先部の位置に加えることで、前記手先部の仮想目標位置を設定し、設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御手段と
を備えることを特徴とするロボット制御システム。
A robot having a hand part and an arm for moving the hand part;
An external sensor that detects a position of the hand portion and a target position that is a movement destination of the hand portion;
An internal sensor that measures the arm and detects the position of the hand part; and
An error between the position of the hand portion detected by the external sensor and the target position of the hand portion detected by the external sensor is calculated, and after converting this error from the camera coordinate system to the robot coordinate system, Control means for setting the virtual target position of the hand portion by adding to the position of the hand portion detected by the internal sensor and controlling the arm so that the hand portion moves to the set virtual target position A robot control system comprising:
手先部とこの手先部を移動させるアームとを有するロボットの制御方法であって、
前記手先部の位置と前記手先部の移動先である目標位置とを検出する位置検出工程と、
前記アームを計測して前記手先部の位置を検出する手先検出工程と、
前記位置検出工程で検出された前記手先部の位置と、前記位置検出工程で検出された前記手先部の目標位置との誤差を算出し、この誤差をカメラ座標系からロボット座標系へ変換する誤差算出工程と、
前記手先検出工程にて検出された前記手先部の位置に前記誤差算出工程で算出した誤差を加えることで、前記手先部の仮想目標位置を設定する位置設定工程と、
前記位置設定工程にて設定された前記仮想目標位置へ前記手先部が移動するよう前記アームを制御する制御工程と
を含むことを特徴とするロボット制御方法。
A method for controlling a robot having a hand part and an arm for moving the hand part,
A position detection step of detecting a position of the hand portion and a target position which is a movement destination of the hand portion;
A hand detection step of measuring the arm and detecting the position of the hand part;
An error for calculating the error between the position of the hand portion detected in the position detection step and the target position of the hand portion detected in the position detection step, and converting the error from the camera coordinate system to the robot coordinate system A calculation process;
A position setting step of setting a virtual target position of the hand portion by adding the error calculated in the error calculating step to the position of the hand portion detected in the hand detecting step;
A control step of controlling the arm so that the hand portion moves to the virtual target position set in the position setting step.
前記位置検出工程と、前記手先検出工程と、前記誤差算出工程と、前記位置設定工程と、前記制御工程とを順次に繰り返し実行するか、または、前記手先検出工程と、前記位置検出工程と、前記誤差算出工程と、前記位置設定工程と、前記制御工程とを順次に繰り返し実行する
ことを特徴とする請求項2に記載のロボット制御方法。
The position detection step, the hand detection step, the error calculation step, the position setting step, and the control step are sequentially repeated, or the hand detection step, the position detection step, The robot control method according to claim 2, wherein the error calculation step, the position setting step, and the control step are repeatedly executed sequentially.
JP2014179563A 2014-09-03 2014-09-03 Robot control system and robot control method Active JP6485620B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014179563A JP6485620B2 (en) 2014-09-03 2014-09-03 Robot control system and robot control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014179563A JP6485620B2 (en) 2014-09-03 2014-09-03 Robot control system and robot control method

Publications (2)

Publication Number Publication Date
JP2016052699A true JP2016052699A (en) 2016-04-14
JP6485620B2 JP6485620B2 (en) 2019-03-20

Family

ID=55744138

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014179563A Active JP6485620B2 (en) 2014-09-03 2014-09-03 Robot control system and robot control method

Country Status (1)

Country Link
JP (1) JP6485620B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019048350A (en) * 2017-09-10 2019-03-28 株式会社チトセロボティクス Robot control device and robot control method for setting control point of robot
JP2019120967A (en) * 2017-12-28 2019-07-22 國家中山科學研究院 Error compensation device and method
CN110153994A (en) * 2018-02-16 2019-08-23 日本电产三协株式会社 The amendment value calculating method of industrial robot
JP2019150931A (en) * 2018-03-05 2019-09-12 パナソニック株式会社 Robot system, control device, and robot
JP2020089927A (en) * 2018-12-03 2020-06-11 学校法人立命館 Robot control system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217418A (en) * 1984-04-11 1985-10-31 Mitsubishi Electric Corp Tracking control system of articulated robot
JPH05318354A (en) * 1992-05-15 1993-12-03 Tsubakimoto Chain Co Position-attitude control method of manipulator
JP2007011978A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Motion controller for robot
WO2013176212A1 (en) * 2012-05-25 2013-11-28 学校法人立命館 Robot control device, robot control method, program, recording medium, and robot system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60217418A (en) * 1984-04-11 1985-10-31 Mitsubishi Electric Corp Tracking control system of articulated robot
JPH05318354A (en) * 1992-05-15 1993-12-03 Tsubakimoto Chain Co Position-attitude control method of manipulator
JP2007011978A (en) * 2005-07-04 2007-01-18 Toyota Motor Corp Motion controller for robot
WO2013176212A1 (en) * 2012-05-25 2013-11-28 学校法人立命館 Robot control device, robot control method, program, recording medium, and robot system

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019048350A (en) * 2017-09-10 2019-03-28 株式会社チトセロボティクス Robot control device and robot control method for setting control point of robot
JP2019120967A (en) * 2017-12-28 2019-07-22 國家中山科學研究院 Error compensation device and method
CN110153994A (en) * 2018-02-16 2019-08-23 日本电产三协株式会社 The amendment value calculating method of industrial robot
CN110153994B (en) * 2018-02-16 2022-09-27 日本电产三协株式会社 Method for calculating correction value of industrial robot
JP2019150931A (en) * 2018-03-05 2019-09-12 パナソニック株式会社 Robot system, control device, and robot
JP2020089927A (en) * 2018-12-03 2020-06-11 学校法人立命館 Robot control system

Also Published As

Publication number Publication date
JP6485620B2 (en) 2019-03-20

Similar Documents

Publication Publication Date Title
JP5850962B2 (en) Robot system using visual feedback
JP6623286B2 (en) Automatic calibration method for robot system
CN107225569B (en) Positioning device
JP6657469B2 (en) Automatic calibration method for robot system
JP6174654B2 (en) Robot system with function to calculate sensor position and orientation
JP6485620B2 (en) Robot control system and robot control method
US10618166B2 (en) Teaching position correction device and teaching position correction method
JP6298026B2 (en) Deflection measurement system for measuring the deflection of articulated robots
JP5321532B2 (en) Robot calibration apparatus and calibration method
US9563601B2 (en) Force sensor correcting method
JP5618066B2 (en) Force control robot calibration apparatus and method
JP6836571B2 (en) Robot device
JP6235664B2 (en) Measuring device used to calibrate mechanism parameters of robot
TWI572468B (en) Automatic adjustment method of offset automatic adjustment device and robot
CN110253574B (en) Multi-task mechanical arm pose detection and error compensation method
JP2015066603A (en) Robot calibration device and robot calibration method, and robot device and robot device control method
JP6622765B2 (en) Robot system
JP2007011978A (en) Motion controller for robot
JP6044511B2 (en) Robot control method and robot system
JPWO2018092243A1 (en) Work position correction method and work robot
JP4302830B2 (en) Robot calibration method and apparatus
JP6922204B2 (en) Controls, robots and robot systems
KR20080088165A (en) Robot calibration method
JP2014104529A (en) Robot system and control method of the same
US8761936B2 (en) Teaching line correcting apparatus, teaching line correcting method, and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170804

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180403

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180403

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190205

R150 Certificate of patent or registration of utility model

Ref document number: 6485620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250