JPH012883A - robot control device - Google Patents

robot control device

Info

Publication number
JPH012883A
JPH012883A JP62-157781A JP15778187A JPH012883A JP H012883 A JPH012883 A JP H012883A JP 15778187 A JP15778187 A JP 15778187A JP H012883 A JPH012883 A JP H012883A
Authority
JP
Japan
Prior art keywords
robot
workpiece
camera
hand
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62-157781A
Other languages
Japanese (ja)
Other versions
JPS642883A (en
Inventor
荒尾 真樹
小路 和明
唐島 めぐみ
Original Assignee
オムロン株式会社
Filing date
Publication date
Application filed by オムロン株式会社 filed Critical オムロン株式会社
Priority to JP62-157781A priority Critical patent/JPH012883A/en
Publication of JPS642883A publication Critical patent/JPS642883A/en
Publication of JPH012883A publication Critical patent/JPH012883A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 発明の要約 カメラ座標系で表現した目標値および測定値で制御系を
構成することにより、高速処理と高精度化を一11能に
する。
DETAILED DESCRIPTION OF THE INVENTION Summary of the Invention By configuring a control system using target values and measured values expressed in a camera coordinate system, high-speed processing and high precision are made possible.

発明の背景 技術分野 二の発明は、視覚装置を備えたロボット・システムにお
いて9把持すべきワークの位置が必ずしも1E確でない
場合にとくに適用可能なロボ・ノド制御装置に関する。
BACKGROUND OF THE INVENTION Technical Field The second invention relates to a robot throat control device that is particularly applicable to a robot system equipped with a visual device in which the position of a workpiece to be gripped is not necessarily certain.

従来技術とその問題点 ロボットが把持すべきワークの位置や姿勢を正確に設定
するには高価な治具や搬送装置を必要とする。そこで設
備を低廉化するためにワークの位置設定に厳密さを要求
しないようにし、これに代わってロボットの手先に視覚
装置を取付け、この視覚装置によってワークの位置姿勢
を測定し、その情報をもとにロボットの手先部をワーク
に位置決めするやり方が一般に採用されている。
Prior art and its problems In order to accurately set the position and orientation of a workpiece to be gripped by a robot, expensive jigs and conveyance devices are required. Therefore, in order to reduce the cost of equipment, we did not require precision in setting the position of the workpiece.Instead, a visual device was attached to the robot's hand, and this visual device measured the position and orientation of the workpiece, and that information was also used. In general, a method is adopted in which the hand of the robot is positioned on the workpiece.

従来のロボットの手先部の位置決めのやり方は、ワーク
の位置を視覚装置固自−の座標系で求め、これをロボッ
トのベース座標系に変換し、さらにそのデータをロボッ
トの関節角に変換していた。この関節角がロボットの動
作目標値となり。
The conventional method for positioning a robot's hand is to determine the position of the workpiece using the visual device's own coordinate system, convert this to the robot's base coordinate system, and then convert that data into the robot's joint angles. Ta. This joint angle becomes the robot's motion target value.

ロボットはその手先部が目標値に近づくように駆動制御
される。
The robot is controlled so that its hand approaches the target value.

このような従来のやり方においては、座標☆換の演算が
多く、シかもこの演算は複雑であるために動作の高速化
が困難でかつ必ずしも高い精度が得られないという欠点
があった。
In such a conventional method, there are many calculations of coordinate conversion, and this calculation is complicated, so it is difficult to speed up the operation and high accuracy cannot necessarily be obtained.

発明の概要 発明の目的 この発明はロボットの高速動作と位置決めの高粘度化と
を図ることをL1的とする。
SUMMARY OF THE INVENTION OBJECT OF THE INVENTION The purpose of this invention is to achieve high-speed operation of a robot and high viscosity positioning.

発明の構成と効果 この発明によるロボット制御装置は、ロボットのアーム
部材に保持された手先効果器とあらかじめ定められた位
置関係を保つように設けられた視覚装置、視覚装置によ
って把えられたワーク像位置と!−記のあらかじめ定め
られた位置関係によって定まる目標位置との偏差に関す
る量を視覚装置の座標系において演算する第1の演算手
段、第1の演算手段による演算結果を、アーム部材の駆
動のための座標系における所定の量に変換する第2の演
算手段、および第21の演算手段によって求められた所
定の隘にしたがって2手先効果器の位置が1−1標位置
に近づくよう上記アーム部材を駆動。
Structure and Effects of the Invention The robot control device according to the present invention includes a visual device provided to maintain a predetermined positional relationship with a hand effector held on an arm member of the robot, and a workpiece image grasped by the visual device. location and! - a first calculation means for calculating, in the coordinate system of the visual device, a quantity related to the deviation from the target position determined by the predetermined positional relationship; Driving the arm member so that the position of the two-handed effector approaches the 1-1 mark position according to the predetermined distance obtained by the second calculation means for converting into a predetermined amount in the coordinate system and the twenty-first calculation means. .

制御する手段を備えていることを特徴とする。It is characterized by comprising means for controlling.

この発明は、ワーク像が視覚装置の視野内に入ったのち
に適用すればよく、ワークが視覚装置によって把えられ
ない範囲にあるときには従来の制御のやり方を用いるこ
とができる。手先効果器の所定位置(たとえば中心位置
)は視覚装置の視野内にある。
This invention can be applied after the image of the workpiece has entered the visual field of the visual device, and conventional control methods can be used when the workpiece is in a range that cannot be grasped by the visual device. A predetermined position (eg, a central position) of the hand effector is within the field of view of the vision device.

この発明によると、視覚装置のカメラの視野内にワーク
が入ったのちは、制御系の1」標位置をカメラ座標系内
の一定座標位置に固定し、同じくカメラ座標系によって
表わされたワーク像位置をフィードバック情報としてこ
れらの間の偏差を無くすように制御している。目標位置
およびフィードバック情報のいずれもカメラ座標系で表
わされているので、第1の演算手段による偏差の演算は
きわめて簡単であり、座標系の変換演算は第2の演算手
段による演算ですむ。しかもこの演算も比較的簡単であ
る。
According to this invention, after the workpiece enters the field of view of the camera of the visual device, the 1" target position of the control system is fixed at a constant coordinate position within the camera coordinate system, and the workpiece also represented by the camera coordinate system is fixed. Control is performed using the image position as feedback information to eliminate deviations between them. Since both the target position and the feedback information are expressed in the camera coordinate system, the deviation calculation by the first calculation means is extremely simple, and the conversion calculation of the coordinate system can be performed by the second calculation means. Moreover, this calculation is also relatively simple.

し、たがって、:(雑な座標変換演算が減少し、高速動
作がiiJ能となるとともに、変換演算による精度低下
が防+Lでき高精度の位置決めが可能となる。
Therefore,: (The number of complicated coordinate conversion calculations is reduced, high-speed operation becomes possible, and a decrease in accuracy due to conversion calculations can be prevented, making it possible to perform high-precision positioning.

実施例の説明 第1図は回転関節で構成された代表的な平面作業型ロボ
ットの一例を示している。ロボット1は、ベース2上に
軸支されかつ水平面内で回転する第1アーム11.  
この第1アームttの先端部に軸支されかつ水平面内で
回転する第2アーム12.  この第2アーム12の先
端部に軸支され1回転するとともにその軸方向に動く回
転直動リンク13.および回転直動リンク13に固定さ
れたハンド(手先効果器)14によって構成されている
。第2アーム12の先端には二次元視覚認識用カメラ(
視覚装置)7が取付けられている。このカメラ7の出力
映像信号は画像処理装置8に送られ、ここで処理されて
ワーク等の特mW(たとえば中心座標)等が算出される
。画像処理装置8はロボット・コントローラ9に接続さ
れている。ロボット・コントローラ9はロボット1のア
ーム11. 12.  リンク13等の駆動を制御する
。アーム11.12.  リンク!3等は公知のサーボ
・モータによって駆動される。ロボット・コントローラ
9および画像処理装置8はCPU、 メモリ、インター
フェイス等から構成されている。
DESCRIPTION OF THE EMBODIMENTS FIG. 1 shows an example of a typical planar working robot configured with rotary joints. The robot 1 includes a first arm 11. which is pivotally supported on a base 2 and rotates in a horizontal plane.
A second arm 12. which is pivotally supported by the tip of the first arm tt and rotates in a horizontal plane. A rotary direct-acting link 13 that is pivotally supported at the tip of the second arm 12 and rotates once and moves in the axial direction. and a hand (hand effector) 14 fixed to a rotary translation link 13. At the tip of the second arm 12 is a two-dimensional visual recognition camera (
Visual device) 7 is installed. The output video signal of the camera 7 is sent to an image processing device 8, where it is processed and the characteristics mW (for example, center coordinates) of the workpiece etc. are calculated. The image processing device 8 is connected to a robot controller 9. The robot controller 9 is connected to the arm 11 of the robot 1. 12. Controls the driving of the link 13 and the like. Arm 11.12. Link! The third motor is driven by a known servo motor. The robot controller 9 and the image processing device 8 are composed of a CPU, memory, interface, etc.

第2図は上述したロボット1におけるロボット・アーム
の関節構造図であり、第1軸Kl、第2軸に2および第
4軸に4が回転関節、第3軸に3が直動関節である。
FIG. 2 is a diagram of the joint structure of the robot arm in the robot 1 described above, in which the first axis Kl, the second axis 2 and the fourth axis 4 are rotary joints, and the third axis is a prismatic joint 3. .

ロボットlにはそのハンド14によってワークWkを把
持すべきl−1標点の位置、姿勢に関するデータがあら
かじめ与えられている。しかしなから、ワークWkは1
、必ずしもその位置、姿勢にIEしく位置決めされてい
る保証はなく、1Elifな把持動作を行なうためには
カメラ7によりワークWにの位置、姿勢を測定し、あら
かじめり、えられている1]標点を修市する必要がある
The robot 1 is given in advance data regarding the position and orientation of the 1-1 gauge point at which the robot 1 should grip the workpiece Wk with its hand 14. However, the work Wk is 1
, there is no guarantee that the position and orientation of the workpiece W will be properly positioned. It is necessary to fix the points.

二の修!■−動作をしなからハンド14によってワーク
Wkを把持するまでのロボット1の動作について次に説
明する。第6図はロボット1の動作を制御するためのコ
ントローラ9によって行なわれる処理手順の概要を示し
ている。
Second training! (2)--The operation of the robot 1 from the time it starts until it grips the workpiece Wk with the hand 14 will be described next. FIG. 6 shows an outline of the processing procedure performed by the controller 9 for controlling the operation of the robot 1.

第6図を参照して、アームII、 12を駆動してハン
ドI4があらかじめ与えられているII標点に向かって
移動するための動作が開始される(ステップ21)。こ
れは従来から一般的に行なわれている関節角の11標値
に対するPTP (ポイント・トウ・ポイント)動作で
ある。そして、移動中にカメラ7の視野内にワークWk
が入ったかどうかか常にチエツクされる(ステップ22
)。カメラ7の視野内にワークWkが入ったときに、制
御系が以下に詳述するようにカメラ座標の制御系に切換
えられる(ステップ23)。
Referring to FIG. 6, an operation is started for driving arm II, 12 to move hand I4 toward a predetermined reference point II (step 21). This is a PTP (point-to-point) motion for 11 joint angle joint angles that has been commonly performed in the past. Then, while moving, the workpiece Wk is placed within the field of view of camera 7.
is constantly checked to see if it has been entered (step 22).
). When the workpiece Wk enters the field of view of the camera 7, the control system is switched to a camera coordinate control system as described in detail below (step 23).

第4図にカメラ7の視野°73が示されている。In FIG. 4, the field of view 73 of the camera 7 is shown.

符号WI11で示される実線の像がワーク画像であり、
その中心位置(x、y)がカメラ7からの映像信号に基
づいて画像処理装置8によって検出される。ワーク画像
Wmの位置は、アーム11. 12の移動すなわちカメ
ラ7の移動により視野内において変わる。すなわちその
中心座標(x、y)の値は変化する。
The solid line image indicated by the symbol WI11 is the work image,
The center position (x, y) is detected by the image processing device 8 based on the video signal from the camera 7. The position of the workpiece image Wm is the arm 11. 12, that is, the movement of the camera 7, changes within the field of view. That is, the value of its central coordinates (x, y) changes.

符号Woで示される破線の像の中心位置(X d。The center position of the image of the broken line indicated by the symbol Wo (X d.

yd)は、カメラ座標によって18えられた望ましいワ
ーク位置を表わし、これが目標位置となる。
yd) represents the desired workpiece position obtained from the camera coordinates, and this becomes the target position.

またこの中心位置(x、y)は、カメラ座標d 内におけるハンド14の中心位置でもある。中心位置(
x、y)は、カメラ7とハンド14の幾何d 学的関係からあらかじめ分っている値であり、ロボット
・コントローラ9に与えられている。
Further, this center position (x, y) is also the center position of the hand 14 within the camera coordinates d. Center position (
x, y) are values known in advance from the geometric relationship between the camera 7 and the hand 14, and are given to the robot controller 9.

ワークWkがカメラ7のl!Pf7S内に入ったのちに
おいてはコントローラ9によって実行される制御系は第
3図に示すようになる。第3図はコントローラ9によっ
て実行される処理をブロック図で表わしたものである。
Work Wk is camera 7's l! After entering the Pf7S, the control system executed by the controller 9 is as shown in FIG. FIG. 3 is a block diagram showing the processing executed by the controller 9. As shown in FIG.

ワークWkの中心位置(x、y)は1ユ述のように画像
処理装置8からフィートノ<・ツク情報として与えられ
る。1−1標値(x、y、)はあらかじめ設定されてい
る。
The center position (x, y) of the workpiece Wk is given from the image processing device 8 as the foot information as described in Section 1 above. 1-1 target values (x, y,) are set in advance.

まず次の演算が行なわれる。First, the following calculation is performed.

ΔX”X、−X ・・・(1) ΔY ”” ’W dY この演算によって求められたΔXとΔyとを用いて、さ
らに なる演算が行なわれる。
ΔX"X, -X (1) ΔY""'W dY Further calculations are performed using ΔX and Δy obtained by this calculation.

ここでJ−1はカメラ座標系の変位と関節座標の変位と
の関係をつけるヤコビ行列であり、関節角を用いて容易
に求めることができる。関節角はアーム11.12(関
節Kl、に2)の角は位置を検出するエンコーダEl、
E2によってPjられる。
Here, J-1 is a Jacobian matrix that establishes the relationship between displacement in the camera coordinate system and displacement in joint coordinates, and can be easily determined using joint angles. The joint angle is determined by the encoder El, which detects the position of the arm 11.12 (joint Kl, 2).
Pj by E2.

このようにして得られたθ 、0 はワーク像Will
の中心位置(x、y)がカメラ座+項(X d。
θ, 0 obtained in this way is the workpiece image Will
The center position (x, y) of is the camera constellation + term (X d.

yd)に近づくための第1関flK!、第2関節に2 
 <アーム11.12)の速度指令値としての意味をも
つ。
The first barrier flK to approach yd)! , 2 at the second joint
<Arm 11, 12) has a meaning as a speed command value.

これらのθ 、θ に対し、エンコーダE1およびE2
から得られた位置情報を微分した(Sはラプラス演算子
で微分を意味する)速度情報をフィードバックしその偏
差をサーボ・アンプAI、A2への指令値とする。サー
ボ・アンプAI、A2はそれぞれアームII、  +2
を駆動するモータMl、M2に対し、指令値に応じた電
流を供給する。
For these θ and θ, encoders E1 and E2
The velocity information obtained by differentiating the position information obtained from (S is a Laplace operator and means differentiation) is fed back, and the deviation is used as a command value to the servo amplifiers AI and A2. Servo amplifiers AI and A2 are arm II and +2, respectively.
A current according to the command value is supplied to the motors Ml and M2 that drive the motors Ml and M2.

以上のようにして、カメラ7による画像の取込み毎に上
記制御が行なわれ、ワークWkの中心位置が(x、yd
)になるようアーム11.12が制御される。
As described above, the above control is performed every time an image is captured by the camera 7, and the center position of the workpiece Wk is set to (x, yd
), the arms 11 and 12 are controlled so that

」二足の説明ではワーク画像WIIlの中心位置(x。” In the explanation of the two legs, the center position (x.

y)をフィードバック情報としたが9画像処理装置8内
で第(1)式の演算を行ない、制御系の1−11値とし
て、ΔX、Δyを設定してもよい。いずれの場合も、制
御系の機能ブロック図としては第3図に示すようになる
Although y) is used as feedback information, it is also possible to calculate equation (1) in the image processing device 8 and set ΔX and Δy as the 1-11 values of the control system. In either case, the functional block diagram of the control system is shown in FIG.

以上が位置についての制御であるが1次にワークWkの
姿勢について述べる。ハンド14の中心位置とワークW
kの中心位置が一致しても、ワークWkの姿勢とハンド
14の姿勢が一致しなければ正確な把持はできない。
The above is the control regarding the position, but first, the attitude of the work Wk will be described. Center position of hand 14 and workpiece W
Even if the center positions of the work Wk and the hand 14 do not match, accurate gripping cannot be performed unless the posture of the workpiece Wk and the posture of the hand 14 match.

ハンド姿勢を一致させることは回転直動リンク13(m
4関節に4)の回転によって行なわれる。
To match the hand postures, the rotary translation link 13 (m
This is done by rotating 4) at the 4 joints.

すなわち、ロボット1のベース2に固定したベース座標
系に対するワーク姿勢を測定し、その姿勢に合うよう第
4関節に4を回転させる。
That is, the workpiece posture with respect to the base coordinate system fixed to the base 2 of the robot 1 is measured, and the fourth joint 4 is rotated to match the posture.

ワーク姿勢は次のようにして容いに求められる。第5図
を参照して、ワーク画像Wfflのカメラ座標X。Yo
に対する傾き角αが画像処理装置8によって求められる
。次にエンコーダEl、E2から得られるアームIt、
 12の関節角θ 、θ2によりカメラ座標X Y と
ベース座標X8Y8の  C 傾き角βを求め、これらの角度αとβとからワークWk
のベース座標X8Y8に対する角度(すなわち姿勢)が
求められる。
The workpiece posture can be determined precisely as follows. Referring to FIG. 5, the camera coordinates X of the workpiece image Wffl. Yo
The image processing device 8 determines the inclination angle α with respect to the angle α. Next, the arm It obtained from encoders El and E2,
12 joint angles θ and θ2, calculate the camera coordinates XY and the C inclination angle β of the base coordinates
The angle (that is, the posture) with respect to the base coordinates X8Y8 is determined.

第6図に戻り、目標値(x、y)と?II定値d (x、y)とが一致すれば、ワークはハンド14の真ド
に位置することになるので、リンク13(第3関1ii
jK3)を下降させる(ステップ25)。このとき、必
要ならば−1−述したハンド14の姿勢変更制御が行な
われる。そして、ハンドI4を閉じることによってワー
クWkが把持される。
Returning to Figure 6, what are the target values (x, y)? If the II constant values d (x, y) match, the workpiece will be located at the true position of the hand 14, so the link 13 (third function 1ii
jK3) is lowered (step 25). At this time, if necessary, the posture change control of the hand 14 described in -1- is performed. Then, by closing the hand I4, the workpiece Wk is gripped.

以にのようにカメラ7の視野内にワークWkが入った後
は、カメラ座標系を基礎とする制御系に切換えることに
より、演算処理は第(1)式と第(2)式を行なえばよ
く、従来のような護雑な座標変換演算が不要となるため
、高速処理、高速動作が可能となる。また位置決め精度
も向上する。
After the workpiece Wk enters the field of view of the camera 7 as described above, by switching to a control system based on the camera coordinate system, calculation processing can be performed by performing equations (1) and (2). Since complicated coordinate transformation calculations as in the conventional method are not required, high-speed processing and high-speed operation are possible. Positioning accuracy is also improved.

上記実施例では回転関節で構成された平面作業型ロボッ
トについて述べたが、直交座標型2円筒座標型などの他
のタイプの甲面作業型ロボット。
In the above embodiments, a planar work type robot configured with rotary joints has been described, but other types of back surface work type robots such as a Cartesian coordinate type and two cylindrical coordinate type are also applicable.

さらに三次元作業ロボットに対してもこの発明は同様に
適用できる。
Furthermore, the present invention can be similarly applied to three-dimensional working robots.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はロボット・システムの全体を示す斜視図、第2
図は第1図のロボットのアーム関節構造図、第3図は制
御処理を機能の観点から描いたブロック図、第4図はカ
メラの座標系およびその視野に把えられた像を示す図、
第5図はカメラ座標系とベース座標系との関係を示す図
、第6図はコントローラによる処理手順を示すフロー・
チャートである。 1・・・ロボット、    2・・・ベース。 7・・・カメラ、      78・・・カメラの視野
。 8・・・画像処理装置。 9・・・ロボット・コントローラ。 ■、12・・・アーム、    +3・・・リンク。 14・・・ハンド。 Kl、に2.に3.に4・・・関節。 Wk・・・ワーク、     Wa+・・・ワーク画像
。 Wo・・・目標位置。 以  上 特許出願人  立石電機株式会社 代 理 人  弁理士 牛久 健司(外1名)第1図 第2図 に2
Figure 1 is a perspective view showing the entire robot system, Figure 2 is a perspective view showing the entire robot system.
The figure is a diagram of the arm joint structure of the robot in Figure 1, Figure 3 is a block diagram depicting control processing from a functional perspective, Figure 4 is a diagram showing the coordinate system of the camera and the image captured in its field of view.
Fig. 5 is a diagram showing the relationship between the camera coordinate system and the base coordinate system, and Fig. 6 is a flowchart showing the processing procedure by the controller.
It is a chart. 1...Robot, 2...Base. 7...Camera, 78...Camera field of view. 8... Image processing device. 9...Robot controller. ■, 12...Arm, +3...Link. 14...hand. Kl, 2. 3. 4...Joints. Wk...work, Wa+...work image. Wo...Target position. Applicant for the above patent: Tateishi Electric Co., Ltd. Agent: Kenji Ushiku (and one other person) Figure 1, Figure 2, 2

Claims (1)

【特許請求の範囲】 ロボットのアーム部材に保持された手先効果器とあらか
じめ定められた位置関係を保つように設けられた視覚装
置、 視覚装置によって把えられたワーク像位置と上記のあら
かじめ定められた位置関係によって定まる目標位置との
偏差に関する量を視覚装置の座標系において演算する第
1の演算手段、 第1の演算手段による演算結果を、アーム部材の駆動の
ための座標系における所定の量に変換する第2の演算手
段、および 第2の演算手段によって求められた所定の量にしたがっ
て、手先効果器の位置が目標位置に近づくよう上記アー
ム部材を駆動、制御する手段、を備えたロボット制御装
置。
[Scope of Claims] A visual device provided to maintain a predetermined positional relationship with a hand effector held on an arm member of a robot, and a workpiece image position grasped by the visual device and the predetermined position. a first calculation means for calculating, in the coordinate system of the visual device, a quantity related to the deviation from the target position determined by the positional relationship; and means for driving and controlling the arm member so that the position of the hand effector approaches the target position according to the predetermined amount determined by the second calculation means. Control device.
JP62-157781A 1987-06-26 robot control device Pending JPH012883A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62-157781A JPH012883A (en) 1987-06-26 robot control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62-157781A JPH012883A (en) 1987-06-26 robot control device

Publications (2)

Publication Number Publication Date
JPS642883A JPS642883A (en) 1989-01-06
JPH012883A true JPH012883A (en) 1989-01-06

Family

ID=

Similar Documents

Publication Publication Date Title
CN108214454B (en) Robot system, robot control device, and robot control method
KR940003204B1 (en) Control robot
EP2350750B1 (en) A method and an apparatus for calibration of an industrial robot system
US7957834B2 (en) Method for calculating rotation center point and axis of rotation, method for generating program, method for moving manipulator and positioning device, and robotic system
EP0194314A1 (en) System for controlling posture of tool
US10328582B2 (en) Process system including robot that transfers workpiece to process machine
JPS6358505A (en) Robot controller
CN116940451A (en) Robot system and workpiece supply method
US20230202039A1 (en) Control device, robot system, and control method for causing robot to execute work on workpiece
US11759955B2 (en) Calibration method
JPH012883A (en) robot control device
JP2979552B2 (en) Robot control method
JP2750739B2 (en) Industrial robot controller
JP2000263477A (en) Calibration method of robot
US20230381969A1 (en) Calibration Method And Robot System
JP7311971B2 (en) ROBOT CONTROL DEVICE AND ROBOT CONTROL METHOD
JPH11165287A (en) Position detection device, position control device and robot control device
JP2654206B2 (en) Touch-up method
JP2001025985A (en) Installation condition detecting method of working robot
US11654562B2 (en) Apparatus, robot control device, robot system, and method of setting robot coordinate system
CN113442131B (en) Teaching method
WO2021182305A1 (en) Numerical control device
JPS61164788A (en) Industrial robot
JP2516993B2 (en) Manipulator control device
JP2652444B2 (en) Robot system