JP2680298B2 - Position correction method for robot equipped with automatic guided vehicle - Google Patents

Position correction method for robot equipped with automatic guided vehicle

Info

Publication number
JP2680298B2
JP2680298B2 JP61034482A JP3448286A JP2680298B2 JP 2680298 B2 JP2680298 B2 JP 2680298B2 JP 61034482 A JP61034482 A JP 61034482A JP 3448286 A JP3448286 A JP 3448286A JP 2680298 B2 JP2680298 B2 JP 2680298B2
Authority
JP
Japan
Prior art keywords
robot
guided vehicle
mark
work
teaching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61034482A
Other languages
Japanese (ja)
Other versions
JPS62191904A (en
Inventor
禮奉 鈴木
達雄 椿
Original Assignee
神鋼電機 株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=12415465&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2680298(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 神鋼電機 株式会社 filed Critical 神鋼電機 株式会社
Priority to JP61034482A priority Critical patent/JP2680298B2/en
Publication of JPS62191904A publication Critical patent/JPS62191904A/en
Application granted granted Critical
Publication of JP2680298B2 publication Critical patent/JP2680298B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] この発明は、無人搬送車にロボットを搭載することに
より、複数の離れた場所へ移動して作業を行えるように
した、無人搬送車搭載ロボットの位置補正方法に関す
る。 [従来の技術] 無人搬送車搭載ロボットは、無人搬送車によってロボ
ットを作業位置まで搬送し、続いてロボットが作業をす
るという一連の動作を繰り返して、与えられた仕事を完
遂する。 この種のロボットの中には、ワークに関して予め教示
された教示点を記憶し、この記憶をたどってプレイバッ
クするようになっているものがあり、ティーチング・プ
レイバック式のロボットと呼ばれている。 ティーチング・プレイバック式のロボットに作業を行
わせる場合、ロボットの操作点(一般にはアーム先端)
とワークとの相対位置を常時把握していなければなら
ず、このためには、無人搬送車をワークに対して一定の
位置に停止させなければならない。 これを実現する停止方法として、従来は次の2つの方
法がとられていた。 (1)無人搬送車の停止位置に、機械的位置決め装置、
例えば、レールやコーンに無人搬送車を押し付ける装置
を設け、これによって位置決めする。 (2)視覚センサを用いてワークの位置を確認し、無人
搬送車が正規の位置にあるときの位置とのずれ量によ
り、教示点を補正して動作させる。 [発明が解決しようとする問題点] ところで、上述した従来の位置補正方法では、次のよ
うな欠点があった。 (A)上記(1)の方法では、無人搬送車はタイヤ駆動
のため、横方向の位置決めが難しい。また、すべての作
業位置に位置決め装置を設置しなければならないため、
スペースと金額がかさむ。更に、位置決め装置を設置で
きない所には、位置決めが不可能である。 (B)上記(2)での方法では、ワークの位置を精密に
把握できる視覚センサは、極めて高価になる。また、画
像処理を行わなければならないため、高度の技術力と投
資とが必要になる。 この発明は、このような背景の下になされたもので、
機械的な位置決め装置を用いず、また、複雑な画像処理
を行わなくて済む、無人搬送車搭載ロボットの位置補正
方法を提供することを目的とする。 [問題点を解決するための手段] 上記問題点を解決するためにこの発明は、無人搬送車
に搭載されたロボットを複数の作業位置に搬送し、該複
数の作業位置毎に前記ロボットを予め教示された教示点
に従って作業させる無人搬送車搭載ロボットにおいて、
前記複数の作業位置毎に置かれた、ワーク載置用台の所
定箇所に記録されたマークと、前記ロボットのアームの
先端部に取り付けられた画像検出手段とを備え、前記無
人搬送車を前記複数の作業位置毎の各近傍に停止させ、
前記ロボットに予め教示されたマーク読取動作の再現を
行わせた後、前記画像検出手段で前記マークを検出し、
このときのマーク位置と教示時のマーク位置とのずれ量
に基づいて変換式を作り、この変換式により前記ロボッ
トの教示点を補正することを特徴とする。 [作用] 上記構成によれば、画像検出手段は、簡単なマーク
(例えば2点)を取り込めるものであればよい。また、
マークを基準として位置補正が簡単にできる。従って、
複雑な画像処理をしなくても位置補正ができる。 [実施例] 以下、図面を参照して、本発明の実施例を説明する。 第1図において、1は無人搬送車である。この無人搬
送車は、地上に敷設された誘導線に沿って走行する誘導
無人車、あるいは誘導線を持たずに走行する、いわゆる
自立無人車のいずれでもよい。 無人搬送車1には、ロボット2が搭載されている。ロ
ボット2は、水平旋回、前後回動および上下回動可能な
アーム3を持っている。アーム3の先端位置には、画像
入力装置4とハンドル5とが一体に取り付けられ、これ
らは、振り、ひねり可能になっている。画像入力装置4
は、CCD(電荷結合デバイス)等からなる固体撮影像素
子である。また、ハンド5は、ワーク6を把持するもの
である。なお、ワーク6は、ロボット2に比べて拡大し
て描いてある。 上記ワーク6は、作業台7の上面中央部に形成された
枠7aに置かれ、ロボット2の作業を受けるようになって
いる。この作業台7の隅には、2点8a,8bからなるマー
ク8が書き込まれている。 このような構成において、無人搬送車1は、複数の作
業台7の間を走行し、作業を行う。この場合、無人搬送
車1の停止精度は低くく、次の手順で位置補正を行わな
ければならない。 (1)まず、作業に先立ってなされる、教示のときに、
マーク8の読み取りを教示する。すなわち、画像入力装
置4をマーク8の真上に移動し、この位置を教示する。
この場合、例えば、ロボット2の脚底部中央を原点と
し、画像入力装置4の水平走査線に平行な方向をX軸と
する水平直交座標系X−Yをとり、この座標系における
マーク8の点8a,8bの座標を各々(Xa,Ya)、(Xb,Yb)
とする(第2図(a))。 (2)次に、無人搬送車1が停止したときの位置で、上
で教示された読み取りのプレイバックを行い、マーク8
を読み取る。すなわち、ロボットに予め教示されたマー
ク読取動作の再現を行わせた後、画像入力装置4によっ
てマーク8を読み取る。この場合、無人搬送車1に対す
るアーム3の位置、姿態は、教示のときと同一である。
しかし、無人搬送車1の停止位置は教示のときとは異な
り、上記X−Y座標系は、第2図(a)に示すU−V座
標系に移る。従って、X−Y座標系で教示した教示点Pi
の座標(Xi,Yi)をU−V座標系での座標(Ui,Vi)に変
換すれば、ワーク6に対する正しい制御を行うことがで
きる。 以下、この変換方法について詳述する。なお、以下の
説明においては、U−V座標系におけるマーク8の点8a
の座標を(Ua,Va)、点8bの座標を(Ub,Vb)とする。 このような設定において、第2図(b)〜(d)に示
す手順で、教示点PiのU−V座標系での座標を求めるこ
ととする。 (I)点8aを原点とし、かつX−Y座標系に平行なx−
y座標系で、点Piの座標(xi,yi)を求めると、次のよ
うになる(第2図(b))。 xi=Xi−Xa yi=Yi−Ya ……(1) これを、行列式の系で表現すると、 となる。ここで、Zi,ziは各々、X−Y,x−y各座標系に
おける点Piの高さ方向の座標であり、これらは不変であ
る。上記(2)式の行列の行列式をAとおく。すなわ
ち、 (II)次に、マーク8の点8bの、x−y座標系における
座標を求めると、第2図(b)のようになる。すなわ
ち、(1)式より、(Xb−Xa,Yb−Ya)となる。また、
点8bを時計方向にΔθ回転した点の座標は、(Ub−Ua,V
b−Va)となる。これは、U−V座標系を平行移動し、
原点を(Ua,Va)とした座標系(これは、後述するu−
v座標系に他ならない)での、点8bの座標に一致する。 これら2つの座標(Xb−Xa,Yb−Ya)、および(Ub−U
a,Vb−Va)と、原点とを結ぶ直線が、x軸となす角を
α、βとすれば、 tanα=(Yb−Ya)/(Xb−Xa) tanβ=(Vb−Va)/(Ub−Ua) ……(4) が得られる。また、Δθ=β−αであるから、正接の加
法定理を用いて、tanΔθを求めれば、次のようにな
る。 tanΔθ=S/T ……(5) ここで、 S=(Xb−Xa)(Vb−Va)−(Yb−Ya)(Ub−Ua) T=(Xb−Xa)(Ub−Ua)−(Yb−Ya)(Vb−Va) これから、角度ずれ量Δθを、次の式によって求める
ことができる。 Δθ=ArctanS/T ……(6) (III)第2図(c)に示すように、x−y座標系
を、角度ずれ量Δθ回転し、新たな座標系u−vとす
る。このu−v座標系における点Piの座標(ui,vi)
は、 ui=(cosΔθ)xi−(sinΔθ)yi vi=(sinΔθ)xi+(cosΔθ)yi ……(7) となる。この変換を上と同様に行列式で表せば、次のよ
うになる。 (IV)第2図(d)に示すように、u−v座標系を平行
移動して、U−V座標系とし、この座標系における点Pi
の座標(Ui,Vi)を求めると、次のようになる。 Ui=ui+Ua Ui=vi+Va ……(9) この変換を行列式で表現すると、となる。 (V)上記行列式を使って、教示点Piを変換する。変換
後の点Qiの座標は、 Qi=C・B・APi ……(11) で求めることができる。 なお、3次元の場合は、マークの点を3次元的に独立
な3点とし、これらを2つ以上の画像入力装置で読み取
るようにすればよい。そして、2次元の場合に準じた演
算を行う。すなわち、各座標軸方向の位置ずれ量と、角
度ずれ量に基づいて、変換式を得、これらに基づいて座
標変換をすれば良い。 [発明の効果] 以上説明したように、この発明は、無人搬送車に搭載
されたロボットを複数の作業位置に搬送し、該複数の作
業位置毎に前記ロボットを予め教示された教示点に従っ
て作業させる無人搬送車搭載ロボットにおいて、前記複
数の作業位置毎に置かれた、ワーク載置用台の所定箇所
に記録されたマークと、前記ロボットのアームの先端部
に取り付けられた画像検出手段とを備え、前記無人搬送
車を前記複数の作業位置毎の各近傍に停止させ、前記ロ
ボットに予め教示されたマーク読取動作の再現を行わせ
た後、前記画像検出手段で前記マークを検出し、このと
きのマーク位置と教示時のマーク位置とのずれ量に基づ
いて変換式を作り、この変換式により前記ロボットの教
示点を補正するようにしたので、次の効果を得ることが
できる。 (1)外的な位置決め装置が要らなくなる。 (2)複雑な画像処理を行わなくても、高精度な位置補
正ができる。 (3)マークがワーク載置用台に設けられていることか
ら、例えばワークの台へのロード作業時等、作業位置に
ワークがない状態での教示点のラフな教示や教示後のロ
ボットの動作確認も行なうことができ、また台に複数の
ワークがおかれるときには、これら複数のワークの処理
に一度のマークの検出で対応でき、よってマークの数を
減らすことができ、マーク記録の手間が激減できる。 (4)マークを読み取るにあたり、ロボットに対し予め
教示されたマーク読取動作の再現を行わせた後アームの
先端部に取り付けた画像検出手段で読み取りを行なうこ
とから、画像検出手段をマークを読み取り易い位置に移
動させた状態でのマーク読取が可能となり、マークの検
出精度ひいては位置補正精度の向上が図れ、かつマーク
位置の自由度が増す等の優れた効果を奏する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial field of application] The present invention relates to an unmanned guided vehicle-equipped robot in which a robot is mounted on an unmanned guided vehicle so that the robot can be moved to a plurality of distant locations for work. Position correction method. [Prior Art] An automated guided vehicle-mounted robot completes a given task by repeating a series of operations in which the automated guided vehicle conveys the robot to a work position, and then the robot performs work. Some robots of this type are designed to memorize teaching points preliminarily taught with respect to a workpiece and follow this memory for playback, which is called a teaching / playback type robot. . When making a teaching / playback robot work, the robot operation point (generally the arm tip)
The relative position between the work and the work must be constantly known, and for this purpose, the automatic guided vehicle must be stopped at a fixed position with respect to the work. Conventionally, the following two methods have been adopted as a stopping method for realizing this. (1) A mechanical positioning device at the stop position of the automatic guided vehicle,
For example, a device for pressing an automated guided vehicle against a rail or a cone is provided and positioning is performed by this. (2) The position of the work is confirmed using the visual sensor, and the teaching point is corrected and operated based on the amount of deviation from the position when the automatic guided vehicle is at the regular position. [Problems to be Solved by the Invention] By the way, the conventional position correction method described above has the following drawbacks. (A) In the method of (1) above, since the automated guided vehicle is driven by tires, lateral positioning is difficult. Also, since the positioning device must be installed in all work positions,
Space and money are large. Furthermore, positioning is impossible where a positioning device cannot be installed. (B) In the method of (2), the visual sensor that can accurately grasp the position of the work becomes extremely expensive. Moreover, since image processing must be performed, a high level of technical skill and investment are required. The present invention has been made under such a background,
An object of the present invention is to provide a position correction method for a robot equipped with an automated guided vehicle, which does not require a mechanical positioning device and does not require complicated image processing. [Means for Solving the Problems] In order to solve the above problems, the present invention conveys a robot mounted on an automatic guided vehicle to a plurality of work positions, and the robot is previously set for each of the plurality of work positions. In an unmanned guided vehicle-mounted robot that operates according to the taught points,
The automatic guided vehicle is provided with a mark recorded at a predetermined position of a work placement table placed at each of the plurality of work positions, and an image detection unit attached to a tip end portion of an arm of the robot. Stop near each of multiple work positions,
After causing the robot to reproduce the mark reading operation taught in advance, the mark is detected by the image detecting means,
A conversion formula is created based on the amount of deviation between the mark position at this time and the mark position at the time of teaching, and the teaching point of the robot is corrected by this conversion formula. [Operation] According to the above configuration, the image detecting means may be any one that can capture a simple mark (for example, two points). Also,
The position can be easily corrected using the mark as a reference. Therefore,
Position correction can be performed without complicated image processing. Example An example of the present invention will be described below with reference to the drawings. In FIG. 1, 1 is an automatic guided vehicle. This automatic guided vehicle may be either a guided unmanned vehicle that travels along a guide line laid on the ground or a so-called self-guided unmanned vehicle that travels without a guide line. A robot 2 is mounted on the automatic guided vehicle 1. The robot 2 has an arm 3 that can horizontally rotate, rotate forward and backward, and rotate vertically. The image input device 4 and the handle 5 are integrally attached to the tip of the arm 3 so that they can be swung and twisted. Image input device 4
Is a solid-state imaging device such as a CCD (charge coupled device). The hand 5 is for gripping the work 6. It should be noted that the work 6 is drawn to be larger than that of the robot 2. The work 6 is placed on a frame 7a formed in the central portion of the upper surface of the work table 7 so as to receive the work of the robot 2. A mark 8 composed of two points 8a and 8b is written in the corner of the work table 7. In such a configuration, the automated guided vehicle 1 travels between a plurality of worktables 7 to perform work. In this case, the stop accuracy of the automatic guided vehicle 1 is low, and the position must be corrected in the following procedure. (1) First, when teaching, which is done prior to work,
Teaching to read the mark 8. That is, the image input device 4 is moved right above the mark 8 and the position is taught.
In this case, for example, a horizontal Cartesian coordinate system XY having the origin at the center of the bottom of the leg of the robot 2 and the X axis in the direction parallel to the horizontal scanning line of the image input device 4, and the point of the mark 8 in this coordinate system is taken. The coordinates of 8a and 8b are (Xa, Ya) and (Xb, Yb), respectively.
(FIG. 2 (a)). (2) Next, at the position when the automated guided vehicle 1 is stopped, the reading playback taught above is performed, and the mark 8 is displayed.
Read. That is, after the robot is made to reproduce the mark reading operation taught in advance, the image input device 4 reads the mark 8. In this case, the position and the shape of the arm 3 with respect to the automated guided vehicle 1 are the same as those at the time of teaching.
However, the stop position of the automated guided vehicle 1 is different from that at the time of teaching, and the XY coordinate system shifts to the UV coordinate system shown in FIG. 2 (a). Therefore, the teaching point Pi taught in the XY coordinate system
By converting the coordinates (Xi, Yi) in (1) to the coordinates (Ui, Vi) in the UV coordinate system, the correct control for the work 6 can be performed. Hereinafter, this conversion method will be described in detail. In the following description, the point 8a of the mark 8 in the UV coordinate system
Let (Ua, Va) be the coordinates of and the coordinates of the point 8b be (Ub, Vb). In such a setting, the coordinates of the teaching point Pi in the UV coordinate system will be obtained by the procedure shown in FIGS. 2 (b) to (d). (I) The point 8a is the origin, and x- is parallel to the XY coordinate system.
The coordinates (xi, yi) of the point Pi in the y coordinate system are as follows (Fig. 2 (b)). xi = Xi−Xa yi = Yi−Ya (1) If this is expressed in the determinant system, Becomes Here, Zi and zi are the coordinates in the height direction of the point Pi in the XY and xy coordinate systems, respectively, and these are invariant. Let A be the determinant of the above equation (2). That is, (II) Next, the coordinates of the point 8b of the mark 8 in the xy coordinate system are obtained as shown in FIG. 2 (b). That is, from the formula (1), it becomes (Xb-Xa, Yb-Ya). Also,
The coordinate of the point 8b rotated clockwise by Δθ is (Ub-Ua, V
b-Va). This translates the U-V coordinate system,
A coordinate system whose origin is (Ua, Va) (this is the u-
v coordinate system) and the coordinates of the point 8b. These two coordinates (Xb-Xa, Yb-Ya), and (Ub-U
a, Vb−Va) and the straight line connecting the origin with the x axis are α and β, tan α = (Yb−Ya) / (Xb−Xa) tan β = (Vb−Va) / ( Ub-Ua) ... (4) is obtained. Further, since Δθ = β−α, tan Δθ can be obtained by using the tangent addition theorem as follows. tan Δθ = S / T (5) where S = (Xb−Xa) (Vb−Va) − (Yb−Ya) (Ub−Ua) T = (Xb−Xa) (Ub−Ua) − ( Yb−Ya) (Vb−Va) From this, the angular deviation amount Δθ can be obtained by the following equation. Δθ = Arctan S / T (6) (III) As shown in FIG. 2 (c), the xy coordinate system is rotated by an angle deviation amount Δθ to form a new coordinate system uv. Coordinates of point Pi in this uv coordinate system (ui, vi)
Is ui = (cosΔθ) xi− (sinΔθ) yi vi = (sinΔθ) xi + (cosΔθ) yi (7) If this transformation is expressed in determinant as above, it becomes as follows. (IV) As shown in FIG. 2 (d), the uv coordinate system is translated to form a UV coordinate system, and a point Pi in this coordinate system is set.
The coordinates (Ui, Vi) of are calculated as follows. Ui = ui + Ua Ui = vi + Va (9) If this transformation is expressed by a determinant, Becomes (V) The teaching point Pi is converted using the above determinant. The coordinates of the point Qi after conversion can be calculated by Qi = C · B · APi (11). In the case of three dimensions, the marks may be three-dimensionally independent three points, and these may be read by two or more image input devices. Then, the calculation according to the two-dimensional case is performed. That is, it suffices to obtain a conversion formula based on the positional shift amount in each coordinate axis direction and the angular shift amount, and perform coordinate conversion based on these. [Effects of the Invention] As described above, according to the present invention, a robot mounted on an automated guided vehicle is conveyed to a plurality of work positions, and the robot is operated at each of the plurality of work positions in accordance with a teaching point taught in advance. In an unmanned guided vehicle-equipped robot, a mark recorded at a predetermined position of a work placement table placed at each of the plurality of work positions and an image detection means attached to a tip portion of an arm of the robot are provided. The unmanned guided vehicle is stopped near each of the plurality of work positions, the mark reading operation taught by the robot is reproduced, and the mark is detected by the image detecting means. Since a conversion formula is created based on the amount of deviation between the mark position at the time of teaching and the mark position at the time of teaching, and the teaching point of the robot is corrected by this conversion formula, the following effects can be obtained. You. (1) No external positioning device is required. (2) High-precision position correction can be performed without performing complicated image processing. (3) Since the mark is provided on the work placement table, rough teaching of a teaching point in a state where there is no work at the work position, for example, when loading the work onto the work stand, or of the robot after teaching is performed. It is also possible to check the operation, and when multiple workpieces are placed on the table, processing of these multiple workpieces can be handled with a single mark detection, thus reducing the number of marks and reducing the time and effort required to record marks. It can be drastically reduced. (4) When the mark is read, the robot is made to reproduce the mark reading operation taught in advance, and the image is read by the image detecting means attached to the tip of the rear arm. Therefore, the image detecting means can easily read the mark. It is possible to read the mark in a state where the mark is moved to the position, and it is possible to improve the mark detection accuracy and thus the position correction accuracy, and it is possible to obtain the excellent effects of increasing the degree of freedom of the mark position.

【図面の簡単な説明】 第1図はこの発明の一実施例の構成を示す概略斜視図、
第2図は座標変換を説明するためのグラフである。 1……無人搬送車、2……ロボット、4……画像入力装
置、6……ワーク、8……マーク。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a schematic perspective view showing the configuration of an embodiment of the present invention,
FIG. 2 is a graph for explaining the coordinate conversion. 1 ... Automated guided vehicle, 2 ... Robot, 4 ... Image input device, 6 ... Work, 8 ... Mark.

フロントページの続き (56)参考文献 特開 昭60−54011(JP,A) 特開 昭60−237504(JP,A) 特開 昭59−189415(JP,A) 特開 昭59−182076(JP,A) 特開 昭58−114892(JP,A) 特開 昭60−229109(JP,A) 特開 昭60−167787(JP,A)Continuation of front page    (56) References JP-A-60-54011 (JP, A)                 JP-A-60-237504 (JP, A)                 JP-A-59-189415 (JP, A)                 JP 59-182076 (JP, A)                 JP 58-114892 (JP, A)                 JP-A-60-229109 (JP, A)                 JP-A-60-167787 (JP, A)

Claims (1)

(57)【特許請求の範囲】 1.無人搬送車に搭載されたロボットを複数の作業位置
に搬送し、該複数の作業位置毎に前記ロボットを予め教
示された教示点に従って作業させる無人搬送車搭載ロボ
ットにおいて、 前記複数の作業位置毎に置かれた、ワーク載置用台の所
定箇所に記録されたマークと、前記ロボットのアームの
先端部に取り付けられた画像検出手段とを備え、前記無
人搬送車を前記複数の作業位置毎の各近傍に停止させ、
前記ロボットに予め教示されたマーク読取動作の再現を
行わせた後、前記画像検出手段で前記マークを検出し、
このときのマーク位置と教示時のマーク位置とのずれ量
に基づいて変換式を作り、この変換式により前記ロボッ
トの教示点を補正することを特徴とする無人搬送車搭載
ロボットの位置補正方法。
(57) [Claims] An automated guided vehicle-equipped robot that conveys a robot mounted on an automatic guided vehicle to a plurality of work positions and causes the robot to work according to a teaching point previously taught for each of the plurality of work positions, A mark recorded at a predetermined position on the work placement table placed and an image detection means attached to the tip of the arm of the robot, and the automatic guided vehicle for each of the plurality of work positions. Stop near,
After causing the robot to reproduce the mark reading operation taught in advance, the mark is detected by the image detecting means,
A position correction method for a robot equipped with an automated guided vehicle, characterized in that a conversion formula is created based on a deviation amount between a mark position at this time and a mark position at the time of teaching, and the teaching point of the robot is corrected by this conversion formula.
JP61034482A 1986-02-19 1986-02-19 Position correction method for robot equipped with automatic guided vehicle Expired - Lifetime JP2680298B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61034482A JP2680298B2 (en) 1986-02-19 1986-02-19 Position correction method for robot equipped with automatic guided vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61034482A JP2680298B2 (en) 1986-02-19 1986-02-19 Position correction method for robot equipped with automatic guided vehicle

Publications (2)

Publication Number Publication Date
JPS62191904A JPS62191904A (en) 1987-08-22
JP2680298B2 true JP2680298B2 (en) 1997-11-19

Family

ID=12415465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61034482A Expired - Lifetime JP2680298B2 (en) 1986-02-19 1986-02-19 Position correction method for robot equipped with automatic guided vehicle

Country Status (1)

Country Link
JP (1) JP2680298B2 (en)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3333963B2 (en) * 1986-09-19 2002-10-15 テキサス インスツルメンツ インコーポレイテツド Visual guidance robot
JP2678002B2 (en) * 1988-02-10 1997-11-17 株式会社日立製作所 Coordinate system calibration method for a robot with vision
JPH0244405A (en) * 1988-08-05 1990-02-14 Matsushita Electric Ind Co Ltd Sensor robot
JP2523368B2 (en) * 1989-03-03 1996-08-07 株式会社ダイフク Operation control equipment for work vehicles
JPH06110515A (en) * 1992-09-25 1994-04-22 Sony Corp Transfer method for object to be conveyed
JP3339090B2 (en) * 1993-02-25 2002-10-28 ソニー株式会社 Position detection method
JP3533066B2 (en) * 1997-04-21 2004-05-31 アシスト シンコー株式会社 Work device position correction apparatus and method
JP3068546B2 (en) 1998-01-28 2000-07-24 山形日本電気株式会社 Robot control method and device
JP2007122705A (en) * 2005-09-30 2007-05-17 Nachi Fujikoshi Corp Welding teaching point correction system and calibration method
JP5088186B2 (en) * 2008-03-18 2012-12-05 株式会社Ihi Robot apparatus and control method of robot apparatus
JP6267157B2 (en) 2015-05-29 2018-01-24 ファナック株式会社 Production system with robot with position correction function
JP6434550B2 (en) 2017-02-06 2018-12-05 ファナック株式会社 Portable robot
JP6905462B2 (en) * 2017-06-30 2021-07-21 株式会社フジタ Wall board pasting method, wall board pasting device, and computer program
CN114194849B (en) * 2021-12-27 2023-07-07 安徽省配天机器人集团有限公司 Stacking error correction method and stacking robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59189415A (en) * 1983-04-13 1984-10-27 Hitachi Ltd Method and device for teaching motion of industrial robot
JPS6054011A (en) * 1983-09-03 1985-03-28 Fanuc Ltd Position control method of industrial robot
JPS60237504A (en) * 1984-05-10 1985-11-26 Fuji Electric Co Ltd Setting device for coordinate for operation of robot mounted on carriage

Also Published As

Publication number Publication date
JPS62191904A (en) 1987-08-22

Similar Documents

Publication Publication Date Title
JP2680298B2 (en) Position correction method for robot equipped with automatic guided vehicle
CN103620341B (en) 3 dimension form measuring instrument and robot systems
US20220314455A1 (en) Production system
US20050273199A1 (en) Robot system
US20220331970A1 (en) Robot-mounted moving device, system, and machine tool
EP0462286A1 (en) A method of positioning a metal sheet for a sheetmetal working machine.
CN1733579A (en) Transfer robot system comprising a manipulator and a temporary container depository moving synchronously with the manipulator
JPH089151B2 (en) Position correction method for robot equipped with automatic guided vehicle
CN110605740A (en) Vision guide feeding system suitable for automatic automobile roof carrying process
CN109571471B (en) Method for calibrating relative spatial position of double robots
WO2019136998A1 (en) Mechanical ceramic tile truss device having visual system
JP2743613B2 (en) Control method of mobile robot
JP3412465B2 (en) Mobile robot device
CN113635325A (en) Numerical control and manipulator system based on vision
CN110640303A (en) High-precision vision positioning system and positioning calibration method thereof
JPH0448304A (en) Method and device for correcting position of self-traveling robot
KR19980081267A (en) Position Correction Device of Work Device and Method
JP3651026B2 (en) Method for teaching robot for stocker
JP3461643B2 (en) Electronic component mounting apparatus and electronic component mounting method
JPH0195889A (en) Laser beam machine and laser beam machining method
JPS5997873A (en) Method of correcting positional displacement of work in robot
WO2021048579A1 (en) System and machine tool
JPH074737B2 (en) Clamp deviation correction device
CN212622304U (en) Automatic marking mechanism
CN215919506U (en) Welding system based on three-dimensional visual positioning