JPH0229807A - Correction data restricting system in visual sensor - Google Patents

Correction data restricting system in visual sensor

Info

Publication number
JPH0229807A
JPH0229807A JP63178998A JP17899888A JPH0229807A JP H0229807 A JPH0229807 A JP H0229807A JP 63178998 A JP63178998 A JP 63178998A JP 17899888 A JP17899888 A JP 17899888A JP H0229807 A JPH0229807 A JP H0229807A
Authority
JP
Japan
Prior art keywords
correction data
data
control device
visual sensor
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP63178998A
Other languages
Japanese (ja)
Other versions
JP2824647B2 (en
Inventor
Toru Mizuno
徹 水野
Atsushi Watanabe
淳 渡辺
Taro Arimatsu
有松 太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP63178998A priority Critical patent/JP2824647B2/en
Publication of JPH0229807A publication Critical patent/JPH0229807A/en
Application granted granted Critical
Publication of JP2824647B2 publication Critical patent/JP2824647B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Abstract

PURPOSE:To safely and efficiently execute robot work by transmitting only correction data in an area set up by a user to a robot control device and invalidating correction data other than that of the area to inhibit the transmission of the data. CONSTITUTION:A visual sensor 10 catches an object by a camera 22, detects the position and rotation of the object, compares the detected results with reference data and forms a difference from the reference data as correction data. The formed correction data, i.e. whether the formed correction data, i.e. parallel moving variables X, Y, Z and a rotational variable DELTAtheta are included between upper and lower limit values stored in a memory or not is discriminated, and even if one of the data is not included in said range, the data are not transmitted to the robot control device. Only when all the correction data are included in the range, the data are sent to the robot control device. Consequently, the robot does not execute dangerous operation exceeding the range between the upper and lower limit values and it is unnecessary for the robot control device side to check the correction data.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は、ロボットの視覚として使用される視覚センサ
に関し、特に、該視覚センサが作成した補正データのチ
エツク方式に関する。
DETAILED DESCRIPTION OF THE INVENTION Field of the Invention The present invention relates to a visual sensor used as vision for a robot, and more particularly to a method for checking correction data created by the visual sensor.

従来の技術 視覚センサを利用してロボットの位置補正を行う場合、
ロボットと視覚センサの間で取り決めた基準位置と、視
覚センサが検出した対象物の位置との差分を補正データ
としてロボット制御装置に送信し、ロボット制御装置で
は、この補正データに基づいて位置のインクリメンタル
補正を行っている。
Conventional technology When correcting the robot's position using a visual sensor,
The difference between the reference position agreed between the robot and the vision sensor and the position of the object detected by the vision sensor is sent to the robot controller as correction data, and the robot controller adjusts the position incrementally based on this correction data. Corrections are being made.

この視覚センサとロボット制御装置間の補正データの送
受は、従来、上記補正データを視覚センサで作成し、そ
の作成された補正データをそのままロボット制御装置に
送信している。
Conventionally, the correction data is transmitted and received between the visual sensor and the robot control device by creating the correction data with the visual sensor and transmitting the created correction data as is to the robot control device.

そして、必要な場合にはロボット制御装置側で補正デー
タのチエツクを行っている。
Then, if necessary, the correction data is checked on the robot control device side.

発明が解決しようとする課題 光等の外乱の影響で視覚センサが対象物の検出を誤った
場合や、対象物が本来あるべき領域内から外れ、ロボッ
トがこのようなう領域外の対象物に対して作業を行うと
、ロボットが他の物と干渉する場合等、視覚センサが対
象物を検出し、補正データを作成し、その補正データに
基づいてロボットが動作した場合、危険な場合がある。
Problems to be Solved by the Invention When the visual sensor incorrectly detects an object due to the influence of disturbances such as light, or when the object moves out of its intended area, the robot detects the object outside the area. It may be dangerous if the visual sensor detects the object, creates correction data, and the robot operates based on the correction data, such as when the robot interferes with other objects when working on the object. .

このような場合、補正データをロボット制御装置側でチ
エツクするとしても、補正データの一つ一つをチエツク
するには、ロボット制御装置側ではかなり困難な作業で
あり、望ましいものではない。
In such a case, even if the correction data is checked on the robot control device side, checking each piece of correction data would be a rather difficult task on the robot control device side, which is not desirable.

そこで、本発明の目的は、視覚センサにおいて補正デー
タのチエツクをも行う補正データ制限方式を提供するこ
とにある。
SUMMARY OF THE INVENTION Accordingly, an object of the present invention is to provide a correction data restriction method that also checks correction data in a visual sensor.

課題を解決するための手段 本発明は、教示された基準データと検出した対象物より
対象物の基準位置からの位置ずれ及び回転ずれを検出し
、位置データ、回転データを作成して補正データとして
ロボット制御装置に送信する視覚センサにおいて、各補
正データの上限値及び下限値を予め設定記憶させておき
、作成された補正データが上記上限値、下限値内であっ
たときのみ補正データとしてロボット制御装置に送信す
るように構成することによって上記問題点を解決した。
Means for Solving the Problems The present invention detects the positional deviation and rotational deviation of the object from the reference position from the taught reference data and the detected object, creates position data and rotation data, and uses the detected object as correction data. The upper and lower limits of each correction data are set and stored in advance in the visual sensor that is sent to the robot control device, and the robot is controlled as correction data only when the created correction data is within the above upper and lower limits. The above problem was solved by configuring the data to be transmitted to the device.

作  用 視覚センサでは、従来と同じように、対象物をカメラで
とらえ、該対象物の位置及び回転を検出し、基準データ
と比較し、基準データとの差分を補正データとして作成
する。そして、この作成された補正データ即ち平行移動
量ΔX、ΔY、ΔZ及び回転量Δθがメモリに記憶され
た上限値及び下限値内にあるか否か各々判別し、1つで
も上限値、下限値内でなければロボット制御装置へこの
補正データを送信せず、すべての補正データの項目が上
限値、下限値内であるときのみロボット制御装置へ補正
データを送出する。その結果、ロボットは上限値や下限
値を超えた危険な動作を行わず、また、ロボット制御装
置側で、補正データのチエツクを行う必要もない。
In the working visual sensor, as in the past, an object is captured by a camera, the position and rotation of the object is detected, compared with reference data, and the difference with the reference data is created as correction data. Then, it is determined whether the created correction data, that is, the amounts of parallel movement ΔX, ΔY, ΔZ and the amount of rotation Δθ, are within the upper and lower limits stored in the memory. This correction data is not sent to the robot control device unless it is within the range, and the correction data is sent to the robot control device only when all correction data items are within the upper and lower limit values. As a result, the robot does not perform dangerous operations that exceed the upper or lower limit values, and there is no need to check correction data on the robot control device side.

実施例 第2図は、本発明の方式を実施する一実施例の視覚セン
サシステムの要部ブロック図である。
Embodiment FIG. 2 is a block diagram of main parts of a visual sensor system according to an embodiment of the present invention.

図中、10は画像中央処理装置で、該画像中央処理装置
10は主中央処理装置(以下、メインCPUという)1
1を有し、該メインCPU11には、カメラインタフェ
イス129画像処理プロセッサ13.コンソールインタ
フェイス141通信インタフェイス15.モニタインタ
フェイス16゜フレームメモリ17.ROMで形成され
たコントロールソフト用メモリ1B、RAM等で構成さ
れたプログラムメモリ19.不揮発性RAMで構成され
たデータメモリ20がバス21で接続されている。
In the figure, 10 is an image central processing unit, and the image central processing unit 10 is a main central processing unit (hereinafter referred to as main CPU) 1.
1, and the main CPU 11 includes a camera interface 129 and an image processing processor 13. Console interface 141 Communication interface 15. Monitor interface 16° frame memory 17. A control software memory 1B formed of ROM, a program memory 19 formed of RAM, etc. A data memory 20 composed of non-volatile RAM is connected via a bus 21.

カメラインタフェイス12には部品等の対象物を撮影す
るカメラ22が接続され、該カメラ22の視野でとらえ
た画像は、グレイスケールによる濃淡画像に変換されて
フレームメモリ17に格納される。
A camera 22 for photographing objects such as parts is connected to the camera interface 12, and the image captured in the field of view of the camera 22 is converted into a gray scale image and stored in the frame memory 17.

画像処理プロセッサ13はフレームメモリ17に格納さ
れた画像を処理し対象物の識別9位置。
The image processing processor 13 processes the image stored in the frame memory 17 and identifies the position of the object.

姿勢を計測する。Measure your posture.

コンソールインタフェイス14にはコンソール23が接
続され、該コン−ソール23は、液晶表示部の外、各種
指令キー、アプリケーションプログラムの入力1編集、
登録、実行などの操作を行うだめの数字キー等を有して
おり、上記液晶表示部には、各種データ設定のためのメ
ニューやプログラムのリストなどを表示できるようにな
っている。
A console 23 is connected to the console interface 14, and the console 23 has a liquid crystal display, various command keys, application program input 1 editing,
It has numeric keys for performing operations such as registration and execution, and the liquid crystal display section can display menus for setting various data, a list of programs, etc.

また、コントロールソフト用メモリ18にはメインCP
U11が該視覚センサシステムを制御するためのコント
ロールプログラムが格納されており、また、プログラム
メモリ19にはユーザが作成するプログラムが格納され
ている。
In addition, the main CPU is stored in the control software memory 18.
A control program for U11 to control the visual sensor system is stored, and a program created by the user is stored in the program memory 19.

通信インタフェイス15にはロボット等の該視覚センサ
システムを利用するシステムが接続されている。また、
TVモニタインタフェイス16にはカメラ22が撮影し
た映像を表示するモニタテレビ24が接続されている。
A system using the visual sensor system, such as a robot, is connected to the communication interface 15. Also,
A monitor television 24 that displays images taken by the camera 22 is connected to the TV monitor interface 16.

以上の構成は、従来の視覚センサシステムの構成と同様
であって、本発明においては、データメモリ20に視覚
センサ10がロボット制御装置に送出する補正データの
上限値及び下限値が格納されている点において、従来の
視覚センサシステムと相違している。
The above configuration is similar to the configuration of a conventional visual sensor system, and in the present invention, the data memory 20 stores the upper and lower limit values of correction data that the visual sensor 10 sends to the robot control device. This is different from conventional visual sensor systems.

ロボット用の補正データには大別して、以下の2種類の
ものがある。
Correction data for robots can be broadly classified into the following two types.

(1)点位置補正データ 視覚センサが検出した対象物の位置と基準位置との差分
、即ち、視覚センサとロボットとが共有する空間上の座
標系(以下、センサ座標系という)において、基準位置
に対する検出した対象物の位置の移動量(ΔX、ΔY。
(1) Point position correction data The difference between the position of the object detected by the visual sensor and the reference position. The amount of movement of the position of the detected object relative to the object (ΔX, ΔY).

ΔZ)と対象物の回転量Δθ。なお、この補正データの
移動量(ΔX、ΔY、ΔZ)1回転量Δθを受信し、ロ
ボットはツールセンタポイントを基準位置から受信した
移動量だけインクリメンタル補正し、かつ、回転量Δθ
だけ手首軸を基準位置から回転させることとなる。
ΔZ) and the rotation amount Δθ of the object. In addition, upon receiving the movement amount (ΔX, ΔY, ΔZ) of this correction data and the rotation amount Δθ, the robot incrementally corrects the tool center point by the received movement amount from the reference position, and the rotation amount Δθ
The wrist axis will be rotated from the reference position by the same amount.

(2)座標補正データ センサ座標系において、基準となる3点を教示して基準
となる基準座標系を設定しておき、視覚センサが対象物
をとらえた座標系の上記座標系からの移動fi(ΔX、
ΔY、ΔZ)とその座標系の基準座標系からの゛3次元
的な回転量Δθ。この場合、座標系の変換であるので、
この補正データは変換マトリックスの形でロボット制御
装置へ送信されることとなる。
(2) Coordinate correction data In the sensor coordinate system, a reference coordinate system is set by teaching three reference points, and the coordinate system in which the visual sensor captures the object is moved from the above coordinate system fi. (ΔX,
ΔY, ΔZ) and the three-dimensional rotation amount Δθ of that coordinate system from the reference coordinate system. In this case, since it is a coordinate system transformation,
This correction data will be sent to the robot controller in the form of a transformation matrix.

なお、上記(1)の点位置補正データは上記(2)の座
標補正データ方式の特殊解のようなもので、上記(2)
の座標補正データ方式によれば、(1)の点位置補正デ
ータをも含むこととなる。
Note that the point position correction data in (1) above is like a special solution to the coordinate correction data method in (2) above.
According to the coordinate correction data method of (1), the point position correction data of (1) is also included.

以上のような補正データの内、(1)の点位置補正デー
タはセンサ座標系における各軸x、y、zの移動m(Δ
X、ΔY、ΔZ)と、対象物(手首軸)の回転量Δθで
あるから、各項目について、許容上限値、許容下限値を
設定することによって補正データの制限を行うことは容
易である。
Among the above correction data, the point position correction data (1) is based on the movement m(Δ
X, ΔY, ΔZ) and the rotation amount Δθ of the object (wrist axis), it is easy to limit the correction data by setting an allowable upper limit value and an allowable lower limit value for each item.

しかし、補正データが上記(2)の座標補正データの場
合、座標系の3次元的な回転量Δθは一般的に数値で把
握しにくい。しかしながら、3次元的な回転は回転中心
となるある主軸があり、この主軸の周りの回転に置き換
えることができる。そこで、本発明は、この主軸の周り
の回転量の許容上限、下限を設定し、この主軸周りの回
転によって補正データを制限する。
However, when the correction data is the coordinate correction data described in (2) above, the three-dimensional rotation amount Δθ of the coordinate system is generally difficult to grasp numerically. However, three-dimensional rotation has a certain principal axis that is the center of rotation, and can be replaced by rotation around this principal axis. Therefore, in the present invention, the allowable upper and lower limits of the amount of rotation around the main axis are set, and the correction data is limited by the rotation around the main axis.

そこで、まず、補正データのセンサ座標系における各@
 (X、Y、Z)の許容上限値、下限値及び主軸周りの
許容回転量(主軸周りの回転口は上記(1)の点位置補
正データにおける回転量でもある)を、予めデータメモ
リ20に設定しておく。
Therefore, first, each @ in the sensor coordinate system of the correction data
The allowable upper and lower limits of (X, Y, Z) and the allowable amount of rotation around the main axis (the rotation opening around the main axis is also the amount of rotation in the point position correction data in (1) above) are stored in the data memory 20 in advance. Set it.

そして、ロボット制御装置から、通信゛インタフェイス
15を介してスナップ指令が入力される毎に、視覚セン
サ10は第1図に示す処理を開始する。
Then, each time a snap command is input from the robot control device via the communication interface 15, the visual sensor 10 starts the process shown in FIG.

まず、CPU11は、カメラインタフェイス12を介し
てカメラ22にスナップ指令を出力し、画像処理プロセ
ッサ13でスナップされた画像をグレイスケール濃淡処
理を行った後、該画像をフレームメモリ17に格納する
(ステップ81)。
First, the CPU 11 outputs a snap command to the camera 22 via the camera interface 12, performs grayscale gradation processing on the snapped image by the image processing processor 13, and then stores the image in the frame memory 17 ( Step 81).

次に、CPtJllは該画像処理プロセッサ13に対象
物検出指令を出力し、該指令を受けて画像処理プロセッ
サ13はフレームメモリ17に格納された画像に対し画
像解析処理を行い、対象物を認識し、対象物の位置(例
えば中心位置)及び対象物の姿勢(回転)を検出する(
ステップ82.83)。次に、検出したカメラ座標系(
フレームメモリ17の画素値データ)の位置及び姿勢か
ら視覚センサ10とロボットとが共有する空間上の座標
系であるセンサ座標系上の対象物の位置及び回転量を求
め、この位置及び回転量と基準位置及び回転量の基準デ
ータの差分を各々求め、補正データを作成する。こうし
て求められた補正データを、各軸の平行移動量(ΔX、
ΔY、ΔZ)と回転jΔθに分離して求める(補正デー
タが上述した(1)の点位置補正データであれば、移動
量ΔX。
Next, CPtJll outputs a target object detection command to the image processing processor 13, and upon receiving the command, the image processing processor 13 performs image analysis processing on the image stored in the frame memory 17 to recognize the target object. , detecting the position (e.g. center position) and orientation (rotation) of the target object (
Step 82.83). Next, the detected camera coordinate system (
The position and amount of rotation of the object on the sensor coordinate system, which is a spatial coordinate system shared by the visual sensor 10 and the robot, are determined from the position and orientation of the pixel value data of the frame memory 17. Differences between the reference data of the reference position and rotation amount are determined, and correction data is created. The correction data obtained in this way is applied to the amount of parallel movement of each axis (ΔX,
(ΔY, ΔZ) and rotation jΔθ (if the correction data is the point position correction data of (1) mentioned above, the movement amount ΔX).

ΔY、Δ21回転吊Δθは補正データそのものとして求
められ、また、上述したく2)の座標補正データであれ
ば、該補正データは座標変換の変換マトリックス形式で
求められるので、この変換マトリックスの回転量を示す
3行3列のマトリックスより主軸の回転量を求める。な
お、平行移動量は、該変換マトリックスの位置ベクトル
部分から求められる)(ステップ84)。
ΔY, Δ21 rotational suspension Δθ are obtained as the correction data itself, and if it is the coordinate correction data of 2) mentioned above, the correction data is obtained in the form of a transformation matrix of coordinate transformation, so the rotation amount of this transformation matrix The amount of rotation of the main shaft is determined from a matrix of 3 rows and 3 columns showing . Note that the amount of parallel movement is obtained from the position vector portion of the transformation matrix (step 84).

求められた補正口ΔX、ΔY、Δ2及びΔθがデータメ
モリ19内に設定した許容上限値と許容下限値内の設定
領域内であるか否か判断しくステップS5)、設定領域
内であれば、ステップS4で求めた補正データを通信イ
ンタフェイス15を介してロボット制御装置に送信する
(ステップS6)。また、設定領域内でなければ補正デ
ータの送信は行わず本処理を終了する。
It is determined whether or not the obtained correction apertures ΔX, ΔY, Δ2, and Δθ are within the set range between the allowable upper limit value and the allowable lower limit value set in the data memory 19 (step S5), and if within the set range, The correction data obtained in step S4 is transmitted to the robot control device via the communication interface 15 (step S6). Furthermore, if it is not within the set area, the correction data is not transmitted and the process ends.

発明の効果 本発明は、使用者が設定した領域内の補正データのみを
ロボット制御装置へ送信し、領域外の補正データは無効
にして補正データを送信しないようにしたから、ロボッ
トの異常動作を防止することができると共に、異常形状
のワーク等の対象物を無視するので、ロボットの作業を
安全でかつ効率よく行うことができる。
Effects of the Invention The present invention transmits only the correction data within the area set by the user to the robot control device, invalidates the correction data outside the area, and prevents the correction data from being sent. This can be prevented, and since objects such as abnormally shaped workpieces are ignored, the robot can work safely and efficiently.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例のフローチャート、第2図は
同一実施例を実施例を視覚センサシステムの要部ブロッ
ク図である。 10・・・視覚センサ、22・・・カメラ、23・・・
コンソール、 24・・・モニタテレビ。
FIG. 1 is a flowchart of an embodiment of the present invention, and FIG. 2 is a block diagram of a main part of a visual sensor system according to the same embodiment. 10...Visual sensor, 22...Camera, 23...
Console, 24...Monitor TV.

Claims (1)

【特許請求の範囲】[Claims] 教示された基準データと検出した対象物より対象物の基
準位置からの位置ずれ及び回転ずれを検出し、位置デー
タ、回転データを作成して補正データとしてロボット制
御装置に送信する視覚センサにおいて、各補正データの
上限値及び下限値を予め設定記憶させておき、作成され
た補正データが上記上限値、下限値内であったときのみ
補正データとしてロボット制御装置に送信するようにし
た視覚センサにおける補正データ制限方式。
The visual sensor detects the positional deviation and rotational deviation of the object from the reference position based on the taught reference data and the detected object, creates position data and rotation data, and sends it to the robot control device as correction data. Correction in a visual sensor in which the upper and lower limit values of correction data are set and stored in advance, and the created correction data is sent to the robot control device as correction data only when it is within the above upper and lower limit values. Data restriction method.
JP63178998A 1988-07-20 1988-07-20 Vision sensor Expired - Fee Related JP2824647B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63178998A JP2824647B2 (en) 1988-07-20 1988-07-20 Vision sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63178998A JP2824647B2 (en) 1988-07-20 1988-07-20 Vision sensor

Publications (2)

Publication Number Publication Date
JPH0229807A true JPH0229807A (en) 1990-01-31
JP2824647B2 JP2824647B2 (en) 1998-11-11

Family

ID=16058327

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63178998A Expired - Fee Related JP2824647B2 (en) 1988-07-20 1988-07-20 Vision sensor

Country Status (1)

Country Link
JP (1) JP2824647B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6403719B1 (en) 1999-07-27 2002-06-11 Mitsui Chemicals, Inc. Flexible resin composition and uses thereof
CN112000109A (en) * 2020-09-10 2020-11-27 广西亚像科技有限责任公司 Position correction method for power inspection robot, power inspection robot and medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60120476A (en) * 1983-12-05 1985-06-27 Nissan Motor Co Ltd Picture processor
JPS61136793A (en) * 1984-12-05 1986-06-24 三菱電機株式会社 Controller for industrial robot
JPS63109996A (en) * 1986-05-15 1988-05-14 三菱電機株式会社 Monitor device for working region of robot

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60120476A (en) * 1983-12-05 1985-06-27 Nissan Motor Co Ltd Picture processor
JPS61136793A (en) * 1984-12-05 1986-06-24 三菱電機株式会社 Controller for industrial robot
JPS63109996A (en) * 1986-05-15 1988-05-14 三菱電機株式会社 Monitor device for working region of robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6403719B1 (en) 1999-07-27 2002-06-11 Mitsui Chemicals, Inc. Flexible resin composition and uses thereof
CN112000109A (en) * 2020-09-10 2020-11-27 广西亚像科技有限责任公司 Position correction method for power inspection robot, power inspection robot and medium
CN112000109B (en) * 2020-09-10 2023-03-31 广西亚像科技有限责任公司 Position correction method for power inspection robot, power inspection robot and medium

Also Published As

Publication number Publication date
JP2824647B2 (en) 1998-11-11

Similar Documents

Publication Publication Date Title
EP0549805B1 (en) Automatic calibration method
US11027431B2 (en) Automatic calibration method for robot system
US20190015988A1 (en) Robot control device, robot, robot system, and calibration method of camera for robot
US9519736B2 (en) Data generation device for vision sensor and detection simulation system
EP1661669A2 (en) Processing program generating device
CN110076751B (en) Robot control device and robot system
US10427298B2 (en) Robot system displaying information for teaching robot
JP7337495B2 (en) Image processing device, its control method, and program
EP0378703B1 (en) Nominal data automatic setting method of visual sensor system
JPH0229807A (en) Correction data restricting system in visual sensor
US20230356405A1 (en) Robot control system, and control device
JPH0299802A (en) Setting method of coordinate system in visual sensor using hand eye
Connolly A new integrated robot vision system from FANUC Robotics
JP2656180B2 (en) Tool tip position adjustment method
JPH04269194A (en) Plane measuring method
JPH02276901A (en) Position shift correcting method for visual sensor
WO2021210514A1 (en) Control device and control method for robot, robot system, and device and method for generating robot operation program
JP2518178B2 (en) Program display method for checking mutual interference of robots
Bingol et al. The development of an intelligent drilling robot system based on Robot Operating System
JPH05301195A (en) Camera position slippage detecting method in visual sensor
WO2022208963A1 (en) Calibration device for controlling robot
JPH01147676A (en) Control system for dynamic window
JPH04279901A (en) Controller for industrial robot
JPH05314257A (en) Image processor and robot controller
JP2950544B2 (en) Image processing method in visual sensor system

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees