JPH04100117A - Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor - Google Patents

Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor

Info

Publication number
JPH04100117A
JPH04100117A JP17071990A JP17071990A JPH04100117A JP H04100117 A JPH04100117 A JP H04100117A JP 17071990 A JP17071990 A JP 17071990A JP 17071990 A JP17071990 A JP 17071990A JP H04100117 A JPH04100117 A JP H04100117A
Authority
JP
Japan
Prior art keywords
robot
coordinates
camera
point
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17071990A
Other languages
Japanese (ja)
Inventor
Seigo Nishikawa
清吾 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yaskawa Electric Corp
Original Assignee
Yaskawa Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yaskawa Electric Corp filed Critical Yaskawa Electric Corp
Priority to JP17071990A priority Critical patent/JPH04100117A/en
Publication of JPH04100117A publication Critical patent/JPH04100117A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To easily obtain the extent of deviation with a high precision by operating a vector on camera coordinates to a deviated position based on the extent of deviation from a reference position on camera coordinates which is detected for deviation of an edge and operating the extent of deviation on robot coordinates in accordance with a vector on robot coordinates corresponding to this vector. CONSTITUTION:Coordinates of a point 13 are denoted as (VX,VY), and the distance from a point 7 (VX0,VY0) of a picture is expressed with VX=C 1X(alphax)+C2X(betax) and VY=C1X(alphay)+C2X(betay), and C1 and C2 are obtained. alphax, alphay, betax, and betay are respective elements of vectors Valpha(alphax,alphay) and Vbeta(betax,betay) on a visual sensor and are obtained by alphax=VX1-VX0, betax=VX2-VX0, alphay= VY1-VY0, and betay=VY2-VY0. C1 and C2 are used to obtain the extent of deviation from a reference point 8 (X0, Y0, Z0) on robot coordinates. Thus, the extent of deviation is obtained with a high precision.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、視覚センサ付き産業用ロボットに関する。[Detailed description of the invention] [Industrial application field] The present invention relates to an industrial robot with a visual sensor.

〔従来の技術〕[Conventional technology]

視覚センサ付き産業用ロボットを用いて、エツジの3次
元位置ズレを検出する方法として、レーザ光を用いる方
法があり、次の2つの方法が知られている。
As a method of detecting a three-dimensional positional shift of an edge using an industrial robot equipped with a visual sensor, there is a method of using laser light, and the following two methods are known.

(1)  レーザ光をポイントとしてワークに照射して
、反射したレーザ光より、3角測量の原理で照射したポ
イントからワークまでの距離を演算し、このレーザを連
続的に位置を移動させながら照射して、照射したポイン
トからワークまでの距離を連続的にもとめ、距離が不連
続に変化した位置をエツジの位置として認識する方法。
(1) The workpiece is irradiated with laser light as a point, and the distance from the irradiated point to the workpiece is calculated based on the principle of triangulation from the reflected laser light, and the laser is irradiated while continuously moving the position. This method continuously determines the distance from the irradiated point to the workpiece, and recognizes the position where the distance changes discontinuously as the edge position.

(2)  レーザのスリット光を照射してエツジでレー
ザ光が屈曲する位置を求め、エツジの位置を検出する方
法がある。
(2) There is a method of detecting the edge position by irradiating a laser slit beam and finding the position where the laser beam bends at the edge.

(1)の方法は、通常、反射光の強度により電圧の変化
する受光素子を用いて照射をワークに面直に当てるよう
にして、ワークと照射ポイントまでの距離と受光素子の
電圧を測定し、受光素子の電圧と距離の関係を求めて、
検出される受光素子の電圧から距離を求めるようにして
いる。この場合、連続的にポイントを移動させるときは
、ミラーを用いてレーザ光の向きを変化させたり、レー
ザ光の照射部と受光部を一体化したモジュールそのもの
を移動させたりする。
Method (1) usually uses a light-receiving element whose voltage changes depending on the intensity of the reflected light, and measures the distance between the workpiece and the irradiation point and the voltage of the light-receiving element by directing the irradiation onto the workpiece. , find the relationship between the voltage of the photodetector and the distance,
The distance is calculated from the detected voltage of the light receiving element. In this case, when moving the point continuously, the direction of the laser beam is changed using a mirror, or the module itself that integrates the laser beam irradiation part and the light receiving part is moved.

(2)の方法は、レーザスリット光を照射する投光機と
反射光を受光するCCDカメラを用いて、エツジでレー
ザ光が屈曲するポイントをカメラ座標上で検出し、ロボ
ット座標上の平面上の位置は、カメラと平面の関係をキ
ャリブレーションしておいて求め、深み方向は、3角測
量の原理を用いて演算する。カメラと平面のキャリブレ
ーションは、カメラの画素サイズが実空間で何ミリに相
当するか求め、カメラ座標とロボット座標の座標間の関
係を表すマトリックスを求める。
Method (2) uses a projector that emits laser slit light and a CCD camera that receives reflected light to detect the point where the laser light bends at the edge on the camera coordinates, and then The position is determined by calibrating the relationship between the camera and the plane, and the depth direction is calculated using the principle of triangulation. To calibrate the camera and plane, find out how many millimeters the pixel size of the camera corresponds to in real space, and find a matrix that represents the relationship between the camera coordinates and the robot coordinates.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

産業用ロボット、特に、多関節形の産業用ロボットが対
象とするワークは、自動車のボディのように3次元的な
ワークであり、かつ多色である。
Works targeted by industrial robots, particularly articulated industrial robots, are three-dimensional works such as the body of a car, and are multicolored.

このようなワークに対して、前記(1)の方法では、照
射をワークに面直にあてるのが難しく、ワークが傾けば
反射するレーザ光の量が変化するため精度が悪(なる。
For such a workpiece, in the method (1), it is difficult to apply the irradiation directly to the workpiece, and if the workpiece is tilted, the amount of reflected laser light changes, resulting in poor accuracy.

また、ワークの色により反射するレーザ光の量が変化す
るため、色による距離関係を別途求める必要がある。
Furthermore, since the amount of reflected laser light changes depending on the color of the workpiece, it is necessary to separately determine the distance relationship depending on the color.

さらに、連続的にポイントを移動させるには、メカ的な
駆動部が必要であり、構造が複雑になる。
Furthermore, in order to continuously move the point, a mechanical drive unit is required, which complicates the structure.

一方、前記(2)の方法は、レーザ投光部と受光のCC
Dカメラ部とワークの位置関係を一定にさせておけば、
−度キヤリプレーンヨンしておけばよいが、自動車のボ
ディのように3次元的なワークでは、ワークとの位置関
係を一定にするのが難しい。すなわち、ワークの色が変
化すれば、反射光の量が変化するため、例えば、黒のワ
ークで光学的設定しておけば、白のワークの時に画像か
にじんで検出できない時があるため、ワークとの傾きを
色によって変化させる必要がある場合があり、この場合
、キャリブレーションを別途やり直す必要がある。とこ
ろが、3次元空間上でキャリブレーションを行うのは、
大変複雑な作業であり、精度を得るのも難しい。
On the other hand, in the method (2) above, the CC of the laser emitter and the light receiver is
If the positional relationship between the D camera section and the workpiece is kept constant,
It is possible to carry out a plane plane by - degrees, but for three-dimensional workpieces such as the body of an automobile, it is difficult to maintain a constant positional relationship with the workpiece. In other words, if the color of the workpiece changes, the amount of reflected light changes, so for example, if you set the optical settings for a black workpiece, the image may blur and cannot be detected for a white workpiece. It may be necessary to change the slope of the color depending on the color, and in this case, it is necessary to recalibrate separately. However, performing calibration in three-dimensional space is
This is a very complex process, and it is difficult to achieve accuracy.

また、何れの方法にしても、検出したデータをもとに産
業用ロボットが作業するためには、得られたデータをロ
ボット座標上の値に変換しなおす必要がある。
In addition, with either method, in order for the industrial robot to work based on the detected data, it is necessary to convert the obtained data back into values on the robot coordinates.

そして、前記キャリブレーションは、作業者が行うため
、個人差がでて精度がばらつく問題もある。
Since the calibration is performed by an operator, there is a problem that accuracy varies due to individual differences.

本発明は、前記の問題を鑑みてなされたものであり、3
次元的に傾いたワーク上のエツジの位置ズレを、カメラ
とレーザ投光機とワークの関係が変化しても、容易に精
度よく求められる方法を提供することを目的とする。
The present invention has been made in view of the above-mentioned problems, and 3.
To provide a method for easily and accurately determining the positional deviation of an edge on a dimensionally inclined workpiece even if the relationship between a camera, a laser projector, and the workpiece changes.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は、この目的を達成するために、産業用ロボット
のエンドエフェクターにCCDカメラとレーザスリット
光を投光する装置を取り付けたティーチングプレイバッ
クタイプの産業用ロボットを用いてエツジの3次元位置
ズレを検出する方法において、 エツジの位置ズレの無い状態でエツジに対して直角近(
にレーザスリット光をエンドエフェクターに取り付けた
レーザスリット投光装置を用いて投光し、この時、ロボ
ット制御点のロボット座標上における位置を記憶し、か
つ、エンドエフェクターに取り付けたCCDカメラで画
像をとらえて画像処理装置により画像解析してレーザス
リット光のエツジによる屈曲位置をカメラ座標上で検出
して記憶し、 次に、産業用ロボットを2方向に移動させ、移動後のそ
れぞれの点で、産業用ロボッi・の制御点のロボット座
標上における位置と、エンドエフェクターに取り付けた
CCDカメラでとらえた画像を画像処理して得られたレ
ーザスリット光の屈曲位置のカメラ座標上の位置を検出
し、 検出されたロボット座標上の制御点の3点の位置と、視
覚センサ上のポイントの3点の位置を記憶し、 検出されたポイントに基づいてロボット座標」二に、始
点を一番始めに検出したポイントとした2方向のベクト
ルを形成し、かっ、カメラ座標上に前記ロボッ)・座標
−[−のベクトルに対応する2方向のベクトルを形成し
、 エツジの位置ズレを検出する場合には、カメラ座標上で
検出された位置が前記位置ズレが無い状態で形成したカ
メラ座標上における2方向のベク)・ルによって検出さ
れたポイントにまで到達するためのベクトルの係数を求
め、その係数の符号を反転したものをカメラ座標上の2
方向のベクトルに対応したロボット座標上のベクトルに
係数としてか(プることによって得られるベクトルの合
成した値をロボット座標上におけるワークの位置ズレ量
とすることを特徴とするものである。
In order to achieve this object, the present invention uses a teaching playback type industrial robot, in which a CCD camera and a device for projecting laser slit light are attached to the end effector of the industrial robot, to control the three-dimensional positional deviation of edges. In the method to detect
The laser slit light is emitted using a laser slit projector attached to the end effector, and at this time, the position of the robot control point on the robot coordinates is memorized, and the image is captured using a CCD camera attached to the end effector. The image is analyzed by an image processing device, and the bending position due to the edge of the laser slit light is detected and memorized on the camera coordinates. Next, the industrial robot is moved in two directions, and at each point after the movement, The position of the control point of the industrial robot i on the robot coordinates and the position on the camera coordinates of the bending position of the laser slit light obtained by processing the image captured by the CCD camera attached to the end effector are detected. , The positions of the three control points on the detected robot coordinates and the positions of the three points on the visual sensor are memorized, and the robot coordinates are determined based on the detected points, starting from the starting point. Form vectors in two directions with the detected point, and then form vectors in two directions corresponding to the vectors of the robot) and coordinates -[- on the camera coordinates. , find the coefficient of the vector that allows the position detected on the camera coordinates to reach the point detected by the vectors in two directions on the camera coordinates formed with no positional deviation, and calculate the coefficients of the vectors. 2 on the camera coordinates with the sign reversed
This method is characterized in that the combined value of the vectors obtained by adding a coefficient to the vector on the robot coordinates corresponding to the vector in the direction is used as the amount of positional deviation of the workpiece on the robot coordinates.

〔作用〕[Effect]

この記憶した位置をもとにロボット座標」二とカメラ座
標上の各々に対応するベクトルを形成することにより、
実作業時においてエツジがズした場合に検出されるカメ
ラ座標上の基準位置からのズレ量をもとに、ズした位置
に到達するカメラ座標」二のベクトルを演算し、このベ
クトルに対応するロボット座標上のベクトルよりロボッ
ト座標上のズレ量を演算することができる。
By forming vectors corresponding to each of the robot coordinates and camera coordinates based on this memorized position,
Based on the amount of deviation from the reference position on the camera coordinates that is detected when the edge shifts during actual work, calculate the vector of the camera coordinates that will reach the shifted position, and move the robot corresponding to this vector. The amount of deviation on the robot coordinates can be calculated from the vector on the coordinates.

〔実施例〕 以下、本発明を図面に示す実施例に基づき具体的に説明
する。
[Example] The present invention will be specifically described below based on an example shown in the drawings.

まず、第1図に示すように、ロボット手釣先端1に、C
CDカメラ2と、レーザ投光機3を取り付け、ワーク4
のズレの無い状態で、検出対象となるエツジ5に対して
面直近くに照射したレーザスリット光の屈曲点6をCC
Dカメラ2でとらえる。なお、レーザスリット光の屈曲
位置がCCDカメラ画面の中心付近になるようにロボッ
トの位置を設定するものとする。
First, as shown in Fig. 1, C
Attach the CD camera 2 and laser projector 3, and place the work 4
CC is the bending point 6 of the laser slit light irradiated close to the surface of the edge 5 to be detected with no deviation.
Captured with D camera 2. It is assumed that the position of the robot is set so that the bending position of the laser slit light is near the center of the CCD camera screen.

CCDカメラ2でとらえた画像を示す第2図を画像処理
して得られる屈曲位置のカメラ座標−1−におけるポイ
ント7と、その時のロボットの制御点のポイント8を記
憶する。この時、CCDカメラでとらえられた画像に対
しては、画像処理に必要なパラメータを設定し、かつ、
必要であれば画像のトレーニングを行う。
Point 7 at the camera coordinates -1- of the bending position obtained by image processing FIG. 2 showing the image captured by the CCD camera 2 and point 8 of the control point of the robot at that time are stored. At this time, parameters necessary for image processing are set for the image captured by the CCD camera, and
Perform image training if necessary.

そして、エツジに対してほぼ直角に、ロボットの手首が
回転しないように、直線補間を行いながら先に検出した
レーザスリット光の屈曲位置がセンサの視野から出ない
位置にロボットを移動させ、その位置でのCCDカメラ
でとらえた画像を示す第4図の屈曲位置のカメラ座標上
のポイント9と、ロボットの制御点の第3図のポイント
10を記憶する。
Then, while performing linear interpolation to prevent the robot's wrist from rotating, the robot is moved almost perpendicular to the edge to a position where the bending position of the laser slit light detected earlier does not come out of the field of view of the sensor. Point 9 on the camera coordinates of the bending position in FIG. 4, which shows the image captured by the CCD camera at , and point 10 in FIG. 3, which is the control point of the robot, are stored.

次に、エツジに対して奥行き方向(前回の方向と直角の
方向)に、ロボットの手首が回転しないように直線補間
でロボットを移動させ、かつ、先に検出したレーザスリ
ット光の屈曲位置がセンサの視野から出ない位置に第5
図のポイント12を設定する。
Next, the robot is moved in the depth direction (perpendicular to the previous direction) with respect to the edge using linear interpolation so that the robot's wrist does not rotate, and the bending position of the laser slit light detected earlier is detected by the sensor. 5th position in a position that does not come out of the field of view.
Set point 12 in the diagram.

これらのポイントを設定(教示)後、ロボットとCCD
カメラとレーザスリット投光機を制御する視覚センサに
起動をかけると、ロボットはポイント8へ移動し、その
時のロボット制御点のロボット座標上のポイント8 (
XO,YO,ZO)と視覚センサで画像処理を行い検出
された第2図のカメラ座標上のポイント7 (VXO,
VY[))を求める。
After setting (teaching) these points, the robot and CCD
When the visual sensor that controls the camera and laser slit projector is activated, the robot moves to point 8, and the robot control point at that time is point 8 (
Point 7 (VXO,
Find VY[)).

続いて、ロボットは、第3図のポイント10へ移動し、
その時のロボット制御点のロボット座標−Lのポイン1
−10 (XI、Yl、Zl)と視覚センサで画像処理
を行い検出された第4図の視覚センサ座標上のポイント
9 (VXl、VYI)を求める。
Next, the robot moves to point 10 in Figure 3,
Robot coordinates of the robot control point at that time - point 1 of L
-10 (XI, Yl, Zl) and the visual sensor performs image processing to find the detected point 9 (VXl, VYI) on the visual sensor coordinates in FIG.

続いて、ロボットは、第5図のポイント12へ移動し、
その時のロボット制御点のロボット座標上のポイント1
2 (X2.Y2.Z2)と視覚センサで画像処理を行
い検出された第6図の視覚センサ座標上のポイント11
 (VX2.VY2)を求め、前記1連の作業中に求め
た点の座標をファイルに登録する。
Next, the robot moves to point 12 in Figure 5,
Point 1 on the robot coordinates of the robot control point at that time
2 (X2.Y2.Z2) and point 11 on the visual sensor coordinates in Figure 6 detected by image processing with the visual sensor.
(VX2.VY2) and register the coordinates of the points found during the series of operations in the file.

この一連の動作時に視覚センサの画像処理中でエラーが
発生した場合は、画像処理の設定が不良であるため、始
めの基準位置に戻り、画像処理のパラメータの再設定と
画像の再トレーニングを行う。
If an error occurs during image processing of the visual sensor during this series of operations, the image processing settings are incorrect, so return to the starting reference position, reset the image processing parameters, and retrain the image. .

前記の作業終了後、実作業時の位置ズレ検出時において
は、視覚センサで検出した第7図のポイント13を(V
X、VY) とり、VX、VYを262図の画像のポイ
ント7 (VXO,VYO)からの距離を、 VX=CIX(αx)十 C2X(βX)VY=CIX
(αy)+   C2X(βy)とおき、C1と02を
求める。
After the above-mentioned work is completed, point 13 in Fig. 7 detected by the visual sensor is set to (V
X, VY) and VX, VY from point 7 (VXO, VYO) of the image in Figure 262, VX = CIX (αx) + C2X (βX) VY = CIX
Set (αy) + C2X (βy) and find C1 and 02.

ただし、αX、αy、βX、βyは第8図に示す視覚セ
ンサ上のベクトルVα(αX、αy)、■β(βX、β
y)の各要素で次式で求まる。
However, αX, αy, βX, βy are the vectors Vα (αX, αy) on the visual sensor shown in Fig. 8, ■ β (βX, β
Each element of y) is determined by the following formula.

αx=VX ]  −VX o、   βx=VX 2
−VX Oαy =VY 1−VY o、   βy=
vy2−vy。
αx=VX ] −VX o, βx=VX 2
−VX Oαy =VY 1−VY o, βy=
vy2-vy.

ティーチング時は、ロボットが移動するが、実作業では
ワークが移動するために画像の移動方向が反対になるこ
とにより、求められたCI、C2の符号を反転する。
During teaching, the robot moves, but during actual work, the workpiece moves, so the moving direction of the image is reversed, so the signs of the obtained CI and C2 are reversed.

この求められたC1.、C2を用いて、ロボット座標−
F、の基準点(XO,YO,ZO)(=第3図のポイン
ト8)からのずれ量を求める。
This obtained C1. , C2, the robot coordinates −
Find the amount of deviation of F from the reference point (XO, YO, ZO) (=point 8 in FIG. 3).

ずれ量は、 RX=CI X (Rax)+c2X (RBx)RY
=CI X (Ray) 十〇2X (RBx)RZ=
CI X (Rax) 十C2x (Raz)ただし、
Rax、Ray、Raz、Rflx。
The amount of deviation is RX=CI X (Rax)+c2X (RBx)RY
=CI X (Ray) 102X (RBx)RZ=
CI X (Rax) 10C2x (Raz) However,
Rax, Ray, Raz, Rflx.

RBx、Razは第9図に示すロボット座標上のベクト
ル Ra CRax、Ray、Raz’)、Rβ(RB
x、RBx、Raz)の各要素で、式で求められる。
RBx, Raz are vectors on the robot coordinates shown in Figure 9. Ra CRax, Ray, Raz'), Rβ (RB
x, RBx, Raz) is calculated using the formula.

Rαx=X1−XO,Rβx=X2−XORαy = 
Y 1− Y O、RB y = Y2−Y 0Raz
=Zl−ZO,Rβz=Z2−ZO求められたX軸方向
のズレ量RX、、Y軸方向のズレ量RY、Z軸方向のズ
レ量RZにより、あらかじめティーチングされている作
業をシフI・することにより修正をかける。
Rαx=X1-XO, Rβx=X2-XORαy=
Y 1-Y O, RB y = Y2-Y 0Raz
=Zl-ZO, Rβz=Z2-ZO Shift the work that has been taught in advance using the determined deviation amount RX in the X-axis direction, deviation amount RY in the Y-axis direction, and deviation amount RZ in the Z-axis direction. Make corrections accordingly.

〔発明の効果〕〔Effect of the invention〕

以上述べたように、本発明によれば、対象のエツジが傾
いた平面上にあっても、またカメラとレーザ投光機どワ
ークの位置か−・定でなくても、宕易に精度よくズレ量
を求めることができる。
As described above, according to the present invention, even if the target edge is on an inclined plane, or even if the position of the camera and laser projector is not fixed, it can be easily and accurately processed. The amount of deviation can be determined.

したがって、自動車のボディのエツジのような3次元の
変化に富んだワークの位置ズレを検出する場合に大きな
効果を発揮する。
Therefore, it is highly effective in detecting the positional deviation of a workpiece that has many three-dimensional changes, such as the edges of an automobile body.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の実施に用いる装置とロボットの基準の
位置を示す図、第2図はレーザスリット光の屈曲位置の
基準の位置を示す図、第3図はロボットの移動後の位置
を示す図、第4図は移動後のレーザスリット光の屈曲位
置を示す図、第5図はロボットの移動後の位置を示す図
、第6図は移動後のレーザスリット光の屈曲位置を示す
図、第7図は実作業時のレーザスリット光の屈曲位置を
示す図、第8図は視覚センサ座標上のベクトルを示す図
、第9図はロボット座標上のベクトルを示す図である。 1・・・ロボット手首先端 2・・・CCDカメラ3・
・・レーザ投光機   4・・・ワーク5・・・エツジ
      6・・・屈曲点7.9,11.13・・・
屈曲位置 8.10.12・・・ロボット制御点 特許出願人 株式会社 安用電機製作所第 図 第4 図 第 図 13屈曲位置 第 回 ジ弓 図 ′R久
Fig. 1 is a diagram showing the reference position of the device and robot used to carry out the present invention, Fig. 2 is a diagram showing the reference position of the bending position of the laser slit light, and Fig. 3 is a diagram showing the position of the robot after movement. Figure 4 is a diagram showing the bending position of the laser slit light after the robot has moved, Figure 5 is a diagram showing the position after the robot has moved, and Figure 6 is a diagram showing the bending position of the laser slit light after the robot has moved. , FIG. 7 is a diagram showing the bending position of the laser slit light during actual work, FIG. 8 is a diagram showing vectors on visual sensor coordinates, and FIG. 9 is a diagram showing vectors on robot coordinates. 1... Robot wrist tip 2... CCD camera 3.
...Laser projector 4...Workpiece 5...Edge 6...Bending point 7.9, 11.13...
Bending position 8.10.12...Robot control point Patent applicant Yasuyo Electric Manufacturing Co., Ltd. Figure 4 Figure 13 Bending position No. 1

Claims (2)

【特許請求の範囲】[Claims] (1)産業用ロボットのエンドエフェクターにCCDカ
メラとレーザスリット光を投光する装置を取り付けたテ
ィーチングプレイバックタイプの産業用ロボットを用い
てエッジの3次元位置ズレを検出する方法において、 エッジの位置ズレの無い状態でエッジに対して直角近く
にレーザスリット光をエンドエフェクターに取り付けた
レーザスリット投光装置を用いて投光し、この時、ロボ
ット制御点のロボット座標上における位置を記憶し、か
つ、エンドエフェクターに取り付けたCCDカメラで画
像をとらえて画像処理、装置により画像解析してレーザ
スリット光のエッジによる屈曲位置をカメラ座標上で検
出して記憶し、 次に、産業用ロボットを2方向に移動させ、移動後の、
それぞれの位置で産業用ロボットの制御点のロボット座
標上における位置と、エンドエフェクターに取り付けた
CCDカメラでとらえた画像を画像処理して得られたレ
ーザスリット光の屈曲位置のカメラ座標上の位置を検出
し、 前記検出された、ロボット座標上の制御点の3点の位置
と、視覚センサ上のポイントの3点の位置を記憶し、 検出されたポイントに基づいてロボット座標上に、始点
を一番始めに検出したポイントとした2方向のベクトル
を形成し、かつ、カメラ座標上に前記ロボット座標上の
ベクトルに対応する2方向のベクトルを形成し、 エッジの位置ズレを検出する場合には、カメラ座標上で
検出された位置が前記位置ズレが無い状態で形成したカ
メラ座標上における2方向のベクトルによって検出され
たポイントにまで到達するためのベクトルの係数を求め
、その係数の符号を反転したものをカメラ座標上の2方
向のベクトルに対応したロボット座標上のベクトルに係
数としてかけることによって得られるベクトルの合成し
た値をロボット座標上におけるワークの位置ズレ量とす
ることを特徴とする視覚センサ付き産業用ロボットにお
けるエッジの3次元位置ズレ検出方法。
(1) A method for detecting a three-dimensional positional shift of an edge using a teaching playback type industrial robot equipped with a CCD camera and a device that emits laser slit light on the end effector of the industrial robot. A laser slit beam is projected almost perpendicularly to the edge without deviation using a laser slit projector attached to an end effector, and at this time, the position of the robot control point on the robot coordinates is memorized, and , the image is captured by a CCD camera attached to the end effector and processed, the image is analyzed by a device, the bending position due to the edge of the laser slit light is detected and memorized on the camera coordinates, and then the industrial robot is moved in two directions. After moving,
At each position, the position of the control point of the industrial robot on the robot coordinates and the position on the camera coordinates of the bending position of the laser slit light obtained by image processing of the image captured by the CCD camera attached to the end effector are determined. Detect and store the positions of the three detected control points on the robot coordinates and the three points on the visual sensor, and align the starting point on the robot coordinates based on the detected points. When detecting edge position deviation by forming vectors in two directions with the point detected at the beginning of the sequence, and forming vectors in two directions on the camera coordinates corresponding to the vectors on the robot coordinates, The coefficients of the vectors that allow the position detected on the camera coordinates to reach the point detected by the vectors in two directions on the camera coordinates formed with no positional deviation are calculated, and the sign of the coefficients is reversed. A visual sensor characterized in that a composite value of vectors obtained by multiplying a vector in two directions on the camera coordinates by a vector on the robot coordinates corresponding to a vector in two directions on the camera coordinates is used as the amount of positional deviation of the workpiece on the robot coordinates. A method for detecting three-dimensional positional deviation of edges in industrial robots with attached robots.
(2)前記一連の動作を産業用ロボットのJOBとして
登録しておくことにより、自動的に実行させることを特
徴とする請求項1記載の視覚センサ付き産業用ロボット
におけるエッジの3次元位置ズレ検出方法。
(2) Detection of three-dimensional positional deviation of an edge in an industrial robot with a visual sensor according to claim 1, wherein the series of operations is registered as a JOB of the industrial robot and is automatically executed. Method.
JP17071990A 1990-06-27 1990-06-27 Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor Pending JPH04100117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP17071990A JPH04100117A (en) 1990-06-27 1990-06-27 Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17071990A JPH04100117A (en) 1990-06-27 1990-06-27 Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor

Publications (1)

Publication Number Publication Date
JPH04100117A true JPH04100117A (en) 1992-04-02

Family

ID=15910129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17071990A Pending JPH04100117A (en) 1990-06-27 1990-06-27 Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor

Country Status (1)

Country Link
JP (1) JPH04100117A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010104458A (en) * 2000-04-28 2001-11-26 조명우 regenerative method of three-dimensional shape
JP2014018932A (en) * 2012-07-20 2014-02-03 Kobe Steel Ltd Calibration method for robot with optical sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010104458A (en) * 2000-04-28 2001-11-26 조명우 regenerative method of three-dimensional shape
JP2014018932A (en) * 2012-07-20 2014-02-03 Kobe Steel Ltd Calibration method for robot with optical sensor

Similar Documents

Publication Publication Date Title
US4396945A (en) Method of sensing the position and orientation of elements in space
JP2767340B2 (en) 3D position / posture measurement method for objects
US5987591A (en) Multiple-sensor robot system for obtaining two-dimensional image and three-dimensional position information
US4761596A (en) Method of detecting and controlling work start point of robot
US4822163A (en) Tracking vision sensor
EP1215017B1 (en) Robot teaching apparatus
US8346392B2 (en) Method and system for the high-precision positioning of at least one object in a final location in space
EP1190818B1 (en) Position-orientation recognition device
US8798794B2 (en) Method and system for highly precisely positioning at least one object in an end position in space
US20190107382A1 (en) Systems and Methods for Projected Grid-Based Location Tracking
US4488173A (en) Method of sensing the position and orientation of elements in space
JP3644991B2 (en) Coordinate system coupling method in robot-sensor system
JPH1063317A (en) Method for combining coordinate system in robot and visual sensor system
US20050122495A1 (en) Method and device for imaging a mask onto a substrate
CN115761011A (en) Full-automatic calibration method and device for line laser 3D camera system
TW201900316A (en) Laser processing device
JPH0523877A (en) Laser beam machine
JP2002031513A (en) Three-dimensional measuring device
CN112437908A (en) Depth sensing robot hand-eye camera using structured light
JPH04100117A (en) Detection of three-dimensional positional deviation of edge for industrial robot with visual sensor
JPH0755439A (en) Three-dimensional shape measuring equipment
CN214684758U (en) Laser marking system capable of correcting marking offset of vibrating mirror
JPH055628B2 (en)
JPH0545117A (en) Optical method for measuring three-dimensional position
JPS6218316B2 (en)