JP2718249B2 - Robot displacement detection device - Google Patents

Robot displacement detection device

Info

Publication number
JP2718249B2
JP2718249B2 JP18594390A JP18594390A JP2718249B2 JP 2718249 B2 JP2718249 B2 JP 2718249B2 JP 18594390 A JP18594390 A JP 18594390A JP 18594390 A JP18594390 A JP 18594390A JP 2718249 B2 JP2718249 B2 JP 2718249B2
Authority
JP
Japan
Prior art keywords
image
reference point
deviation
displacement
shift
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP18594390A
Other languages
Japanese (ja)
Other versions
JPH0477806A (en
Inventor
泰彦 森永
正人 榊原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP18594390A priority Critical patent/JP2718249B2/en
Publication of JPH0477806A publication Critical patent/JPH0477806A/en
Application granted granted Critical
Publication of JP2718249B2 publication Critical patent/JP2718249B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)
  • Control Of Position Or Direction (AREA)

Description

【発明の詳細な説明】 産業上の利用分野 本発明はロボットの位置ずれ検出装置に係り、特に、
予め定められた基準位置に対する位置ずれおよび角度ず
れを定量的に検出できる装置に関するものである。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a device for detecting a displacement of a robot,
The present invention relates to an apparatus capable of quantitatively detecting a positional shift and an angular shift with respect to a predetermined reference position.

従来の技術 例えば、第12図の塗面検査装置は、縞模様の散乱光を
発する発光体10が塗装面12に映った像10′を、鏡14を介
してCCDカメラ16により撮像し、ビデオ18を介してモニ
タ20に写し出された縞模様の幅や間隔から、塗装面12の
平滑度などを検査するもので、上記発光体10,鏡14,およ
びCCDカメラ16はロボットハンド22に位置固定に配設さ
れ、そのロボットハンド22と共に予め記憶された教示位
置データに従って順次別の検査位置(教示点)へ移動さ
せられ、塗装面12の検査を行うようになっている。そし
て、このような塗装検査装置において上記教示位置デー
タをティーチングする際には、第13図に示されているよ
うに予め多数の教示点Tを塗装面12上に設定し、第14図
に示されているティーチング用プローブ24を用いて、前
記CCDカメラ16の撮像視野の中心に教示点Tが位置する
ように、プローブ24の先端を教示点Tと一致させるとと
もにプローブ24と塗装面12との成す角度βが予め定めら
れた設計値と一致するように行われる。
2.Description of the Related ArtFor example, the paint surface inspection apparatus shown in FIG. 12 captures an image 10 ′ in which a luminous body 10 emitting scattered light having a stripe pattern is reflected on a paint surface 12 by a CCD camera 16 via a mirror 14, The smoothness and the like of the painted surface 12 are inspected from the width and interval of the striped pattern projected on the monitor 20 via 18, and the light emitting body 10, the mirror 14, and the CCD camera 16 are fixed in position on the robot hand 22. And is sequentially moved to another inspection position (teaching point) in accordance with the teaching position data stored in advance together with the robot hand 22 to inspect the painted surface 12. When teaching the teaching position data in such a coating inspection apparatus, a large number of teaching points T are set in advance on the coating surface 12 as shown in FIG. Using the teaching probe 24, the tip of the probe 24 is made to coincide with the teaching point T so that the teaching point T is located at the center of the imaging field of view of the CCD camera 16, and the probe 24 and the painted surface 12 are Is performed so that the formed angle β matches a predetermined design value.

ところで、上記プローブ24はティーチング時に塗装面
12に傷を付けないように可撓性を持たせてあるため、正
確の位置決めが難しいとともに、塗装面12は複雑な曲面
を成していることから上記角度βの正確の計測も困難
で、必ずしも高精度のティーチングを行うことはできな
かった。このため、第15図に示されているように前記発
光体10に取り付けられる縞模様板26の中心、すなわちロ
ボットハンド22が正確にティーチングされた場合にCCD
カメラ16による撮像画像の中心に位置する部分に、前記
教示点Tや塗装面10に存在する欠陥と色や濃淡,形状等
において区別できるマークMを設け、前記教示位置デー
タに従ってロボットハンド22を駆動した時に、前記モニ
タ20の画像上における教示点Tの位置からロボットハン
ド22の位置ずれを修正するとともに、モニタ20の画像上
におけるマークMの位置からロボットハンド22の塗装面
10に対する角度ずれを修正することが考えられている。
By the way, the probe 24 has a painted surface during teaching.
Because it has flexibility so as not to scratch the 12, it is difficult to accurately position, and since the painted surface 12 has a complicated curved surface, it is also difficult to accurately measure the angle β, High-precision teaching was not always possible. For this reason, as shown in FIG. 15, when the center of the striped plate 26 attached to the light emitting body 10, that is, the robot hand 22 is correctly taught, the CCD
A mark M that can be distinguished from a defect existing on the teaching point T or the painting surface 10 by a color, shading, shape, or the like is provided at a portion located at the center of an image captured by the camera 16, and the robot hand 22 is driven according to the teaching position data. The position of the robot hand 22 is corrected from the position of the teaching point T on the image of the monitor 20, and the painted surface of the robot hand 22 is corrected from the position of the mark M on the image of the monitor 20.
It is conceivable to correct the angle shift with respect to 10.

発明が解決しようとする課題 しかしながら、前記CCDカメラによって撮像された画
像上における教示点TおよびマークMの位置は、ロボッ
トハンドの位置ずれや角度ずれによって互いに独立に変
化するわけではなく互いに関連しているため、画像上に
おける教示点TおよびマークMの位置ずれが共に無くな
るようにするには、例えば第16図のフローチャートに示
されているように、ロボットハンドの位置ずれの修正と
角度ずれの修正とを試行錯誤で交互に繰り返す必要があ
り、面倒で長時間を要するとともに、ずれ量の測定も作
業者がモニタの画面上で定規等を使って行うため、必ず
しも高い精度が得られないのである。
Problems to be Solved by the Invention However, the positions of the teaching point T and the mark M on the image captured by the CCD camera do not change independently of each other due to the positional deviation and the angular deviation of the robot hand, but are related to each other. Therefore, in order to eliminate both the displacement of the teaching point T and the mark M on the image, for example, as shown in the flowchart of FIG. 16, the correction of the displacement of the robot hand and the correction of the angle displacement are performed. Must be repeated alternately by trial and error, which is troublesome and takes a long time, and the measurement of the amount of deviation is also performed by a worker using a ruler or the like on the monitor screen, so that high accuracy is not necessarily obtained. .

なお、このようなロボットの位置ずれを定量的に検出
する装置として、例えば特開昭60−118907号公報にスリ
ット光を用いた光切断法によるものが開示されている
が、この場合には、三次元方向の位置ずれについては検
出し得るものの角度ずれまでは検出し得ないのである。
As a device for quantitatively detecting such a positional shift of the robot, for example, a device based on a light cutting method using slit light is disclosed in Japanese Patent Application Laid-Open No. 60-118907. In this case, Although positional displacement in the three-dimensional direction can be detected, it cannot be detected until angular displacement.

本発明は以上の事情を背景として為されたもので、そ
の目的とするところは、CCDカメラ等の撮像装置によっ
て撮像された画像に基づいて、ロボットハンド等の可動
部のずれ寸法およびずれ角度を自動的に検出できる位置
ずれ検出装置を提供することにある。
The present invention has been made in view of the above circumstances, and an object of the present invention is to determine a displacement dimension and a displacement angle of a movable portion such as a robot hand based on an image captured by an imaging device such as a CCD camera. An object of the present invention is to provide a position shift detecting device that can automatically detect the position shift.

課題を解決するための手段 かかる目的を達成するためには、画像上における教示
点T(第1基準点)およびマークM(第2基準点)のず
れだけでなくそれ等の大きさの寸法誤差についても検出
するようにすれば良く、本発明は、光を反射する鏡面状
の基準面に対して相対移動させられるロボットの可動部
が、その基準面上に設けられた第1基準点に対して、そ
の基準面に対する姿勢を含めて予め定められた基準位置
に位置させられているか否かを検出する装置であって、
(a)予め定められた位置に第2基準点が設けられて、
その第2基準点が前記基準面に映るように前記可動部に
位置固定に配設された第2基準部材と、(b)前記可動
部が前記基準位置の近傍へ移動させられることにより、
前記基準面に映っている前記第2基準点が前記第1基準
点と共に撮像視野内に入るように、その可動部に位置固
定に配設された撮像装置と、(c)その撮像装置によっ
て撮像された画像上における前記第1基準点と、前記可
動部が前記基準位置に位置させられている場合にその画
像上においてその第1基準点が位置する予め定められた
第1目標位置とのずれ寸法を検出する第1位置ずれ検出
手段と、(d)前記画像上における前記第2基準点と、
前記可動部が前記基準位置に位置させられている場合に
その画像上においてその第2基準点が位置する予め定め
られた第2目標位置とのずれ寸法を検出する第2位置ず
れ検出手段と、(e)前記画像上における前記第1基準
点および第2基準点の少なくとも一方の大きさと、前記
可動部が前記基準位置に位置させられている場合のその
画像上におけるその一方の基準点の大きさとして予め定
められた目標寸法との誤差を検出する寸法誤差検出手段
と、(f)前記第1位置ずれ検出手段,第2位置ずれ検
出手段,および寸法誤差検出手段によってそれぞれ検出
された前記画像上における位置ずれ寸法および大きさの
寸法誤差に基づいて、前記可動部の前記基準位置に対す
るずれ寸法およびずれ角度を求めるずれ量決定手段とを
有することを特徴とする。
Means for Solving the Problems In order to achieve the above object, not only the deviation of the teaching point T (first reference point) and the mark M (second reference point) on the image but also the dimensional error of the magnitudes thereof. In the present invention, the movable portion of the robot that is relatively moved with respect to the mirror-like reference surface that reflects light is moved relative to a first reference point provided on the reference surface. A device for detecting whether or not the camera is positioned at a predetermined reference position including an attitude with respect to the reference plane,
(A) a second reference point is provided at a predetermined position,
A second reference member fixedly disposed on the movable portion so that the second reference point is reflected on the reference surface; and (b) moving the movable portion to a position near the reference position,
An image pickup device fixedly disposed on a movable portion of the image pickup device so that the second reference point reflected on the reference plane and the first reference point enter the image pickup field of view; Between the first reference point on the displayed image and a predetermined first target position where the first reference point is located on the image when the movable part is located at the reference position. First displacement detection means for detecting dimensions, (d) the second reference point on the image,
A second displacement detection unit that detects a displacement dimension from a predetermined second target position where the second reference point is located on the image when the movable unit is located at the reference position; (E) the size of at least one of the first reference point and the second reference point on the image, and the size of one of the reference points on the image when the movable portion is located at the reference position Dimension error detecting means for detecting an error from a predetermined target dimension, and (f) the image detected by the first position error detecting means, second position error detecting means, and dimensional error detecting means, respectively. And a shift amount determining means for obtaining a shift size and a shift angle of the movable portion with respect to the reference position based on the position shift size and the size error of the size. To.

作用および発明の効果 このようなロボットの位置ずれ検出装置においては、
撮像装置によって撮像された画像上における第1基準点
と第1目標位置とのずれ寸法,第2基準点と第2目標位
置とのずれ寸法,および第1基準点および第2基準点の
少なくとも一方の大きさと目標寸法との寸法誤差が、そ
れぞれ第1位置ずれ検出手段,第2位置ずれ検出手段,
および寸法誤差検出手段によって検出され、それ等の位
置ずれ寸法および寸法誤差に基づいて、ずれ量決定手段
により可動部の基準位置に対するずれ寸法およびずれ角
度が求められる。
Functions and Effects of the Invention In such a device for detecting a position shift of a robot,
At least one of a displacement dimension between the first reference point and the first target position, a displacement dimension between the second reference point and the second target position, and a first reference point and a second reference point on an image captured by the imaging device. The size error between the size of the target and the target size is determined by the first position shift detecting unit, the second position shift detecting unit,
The displacement amount and the displacement angle with respect to the reference position are obtained by the displacement amount determining means based on the positional displacement dimension and the dimensional error.

このように、本発明の位置ずれ検出装置によれば、可
動部の第1基準点に対する位置ずれおよび基準面に対す
る角度ずれが定量的に検出されるため、例えばこのよう
にして検出されたずれ量に基づいて教示位置データを修
正することにより、作業者が試行錯誤で位置ずれや角度
ずれを修正していた従来の場合に比較して、教示位置デ
ータの修正が自動的に短時間でしかも高い精度で行われ
得るようになる。
As described above, according to the position shift detecting device of the present invention, the position shift of the movable portion with respect to the first reference point and the angle shift with respect to the reference plane are quantitatively detected. The teaching position data is corrected based on the above, so that the teaching position data is automatically corrected in a short time and at a higher rate than in the conventional case where the worker corrects the position shift and the angle shift by trial and error. It can be done with precision.

実施例 以下、本発明の一実施例を図面に基づいて詳細に説明
する。なお、以下の実施例で前記従来例と共通する部分
には同一の符号を付して詳しい説明を省略する。
Embodiment Hereinafter, an embodiment of the present invention will be described in detail with reference to the drawings. In the following embodiments, portions common to the above-described conventional example are denoted by the same reference numerals, and detailed description thereof will be omitted.

第1図において、ロボットハンド22はロボット30によ
って互いに直角なX,Y,Z軸方向へ三次元的に移動させら
れるとともに、X軸およびY軸まわりに回動させられて
その姿勢が変化させられるようになっている。ロボット
30は、前記プローブ24等を用いて行われたティーチング
処理により予めパソコン32に記憶された教示位置データ
がロボット制御装置34に取り込まれることにより、その
教示位置データに従ってロボットハンド22を複数の教示
点T上へ予め定められた姿勢で順次移動させるように制
御される。
In FIG. 1, the robot hand 22 is three-dimensionally moved in directions of X, Y, and Z axes perpendicular to each other by the robot 30, and is rotated around the X axis and the Y axis to change its posture. It has become. robot
The teaching position data stored in the personal computer 32 in advance by the teaching process performed using the probe 24 and the like is loaded into the robot controller 34, and the robot hand 22 is moved to a plurality of teaching points in accordance with the teaching position data. It is controlled so as to sequentially move on T in a predetermined posture.

上記教示位置データが正確であれば、ロボットハンド
22は各教示点Tに対してそれぞれCCDカメラ16の撮像視
野の中心に教示点Tおよび塗装面12に映った発光体10′
のマークMが位置する基準位置に位置決めされ、CCDカ
メラ16の画像P上における教示点TおよびマークMの像
T′およびM′はそれぞれ画像中心Oに位置させられる
が、X,Y,Z軸方向の位置ずれやX軸,Y軸まわりの角度ず
れがあると、像T′およびM′は第2図に示されている
ように画像Pの中心Oからずれる。また、本実施例のマ
ークMは、第3図に示されているように四角形状を成し
ており、画像P上における像M′の大きさは上記ロボッ
トハンド22の位置ずれや角度ずれに応じて変化する。こ
のマークMは、教示点Tや塗装面10に存在する欠陥と色
や濃淡,形状等において区別できるように縞模様板26に
設けられている。
If the above teaching position data is accurate, the robot hand
Reference numeral 22 denotes a luminous body 10 'reflected on the teaching point T and the painted surface 12 at the center of the imaging field of the CCD camera 16 with respect to each teaching point T.
Are positioned at the reference position where the mark M is located, and the teaching point T and the images T ′ and M ′ of the mark M on the image P of the CCD camera 16 are respectively positioned at the image center O, but the X, Y, and Z axes If there is a positional deviation in the direction or an angular deviation about the X axis and the Y axis, the images T 'and M' are shifted from the center O of the image P as shown in FIG. Further, the mark M of the present embodiment has a square shape as shown in FIG. 3, and the size of the image M ′ on the image P depends on the positional deviation and the angular deviation of the robot hand 22. Will change accordingly. The mark M is provided on the striped plate 26 so that it can be distinguished from a defect existing on the teaching point T or the painted surface 10 by color, shading, shape, and the like.

この実施例では、塗装面12が光を反射する鏡面状の基
準面に相当し、CCDカメラ16が撮像装置に相当し、ロボ
ットハンド22がロボットの可動部に相当し、塗装面12に
設けられた教示点Tが第1基準点に相当し、縞模様板26
に設けられたマークMが第2基準点に相当し、縞模様板
26が第2基準部材に相当し、画像Pの中心Oが第1目標
位置および第2目標位置に相当する。
In this embodiment, the painted surface 12 corresponds to a mirror-like reference surface that reflects light, the CCD camera 16 corresponds to an imaging device, and the robot hand 22 corresponds to a movable part of a robot, and is provided on the painted surface 12. Teaching point T corresponds to the first reference point,
The mark M provided in the striped plate corresponds to the second reference point.
26 corresponds to the second reference member, and the center O of the image P corresponds to the first target position and the second target position.

そして、CCDカメラ16から出力される前記画像Pを表
す画像信号は画像処理装置36に供給される。画像処理装
置36はマイクロコンピュータを含んで構成されており、
RAMの一時記憶機能を利用しつつROMに記憶されたプログ
ラムに従って信号処理を行うもので、第4図に示されて
いるフローチャートに従って画像処理を行うことによ
り、画像P上における上記像T′およびM′のずれ寸法
や像M′の大きさからロボットハンド22の位置ずれ寸法
やずれ角度を検出するようになっている。
Then, an image signal representing the image P output from the CCD camera 16 is supplied to an image processing device 36. The image processing device 36 is configured to include a microcomputer,
The signal processing is performed according to the program stored in the ROM while utilizing the temporary storage function of the RAM. By performing the image processing according to the flowchart shown in FIG. The position deviation size and the deviation angle of the robot hand 22 are detected from the deviation size of the '′ and the size of the image M'.

第4図において、ステップS1ではCCDカメラ16から画
像Pを表す画像信号を取り込み、ステップS2においてそ
の画像Pから教示点Tの像T′を抽出する。この抽出処
理では、微分などにより画像Pから縞模様や像M′を削
除して行われる。そして、次のステップS3では、上記像
T′の中心座標と画像中心Oとのずれ寸法δX1およびδ
Y1を算出し、パソコン32のメモリ38に記憶する。これ等
のずれ寸法δX1,δY1は、前記第2図から明らかなよう
にそれぞれX軸方向のずれ量,Y軸方向のずれ量を表して
いる。画像処理装置36による一連の信号処理のうち、上
記ステップS2およびS3を実行する部分が第1位置ずれ検
出手段に相当する。
In FIG. 4, at step S1, an image signal representing an image P is fetched from the CCD camera 16, and at step S2, an image T 'of the teaching point T is extracted from the image P. This extraction processing is performed by deleting the stripe pattern and the image M ′ from the image P by differentiation or the like. Then, in the next step S3, the deviation dimensions δX 1 and δ between the center coordinates of the image T ′ and the image center O are determined.
Calculating a Y 1, it is stored in the memory 38 of the computer 32. These shift dimensions δX 1 , δY 1 represent the shift amount in the X-axis direction and the shift amount in the Y-axis direction, respectively, as is apparent from FIG. In the series of signal processing performed by the image processing device 36, the part that executes steps S2 and S3 corresponds to a first displacement detection unit.

続くステップS4では、微分などにより画像Pから縞模
様や像T′を削除してマークMの像M′を抽出し、次の
ステップS5において、その像M′の中心座標と画像中心
Oとのずれ寸法δX2およびδY2を算出するとともにパソ
コン32のメモリ38に記憶する。これ等のずれ寸法δX2,
δY2は、前記第2図から明らかなようにそれぞれX軸方
向のずれ量,Y軸方向のずれ量を表している。画像処理装
置36による一連の信号処理のうち、これ等のステップS4
およびS5を実行する部分が第2位置ずれ検出手段に相当
する。
In the following step S4, the image M 'of the mark M is extracted by removing the stripe pattern or the image T' from the image P by differentiation or the like. In the next step S5, the center coordinates of the image M 'and the image center O are compared. The shift dimensions ΔX 2 and ΔY 2 are calculated and stored in the memory 38 of the personal computer 32. These deviation dimensions δX 2 ,
δY 2 represents a shift amount in the X-axis direction and a shift amount in the Y-axis direction, respectively, as is apparent from FIG. In a series of signal processing by the image processing device 36, these steps S4
The step of executing steps S5 and S5 corresponds to a second displacement detection unit.

また、次のステップS6においては、上記像M′のX軸
方向寸法aX′およびY軸方向寸法aY′を算出し、予め設
定された目標寸法aXおよびaYとの寸法誤差δaX(=aX
−aX),δaY(=aY′−aY)を演算するとともに、それ
等の寸法誤差δaXおよびδaYをパソコン32のメモリ38に
記憶する。上記目標寸法aX,aYは、ロボットハンド22が
正確に基準位置に位置決めされた場合の画像P上におけ
るマークMの像M′の寸法として予めROM等に記憶され
ている。画像処理装置36による一連の信号処理のうち、
このステップS6を実行する部分が寸法誤差検出手段に相
当する。
In the next step S6, the X-axis dimension a X ′ and the Y-axis dimension a Y ′ of the image M ′ are calculated, and a dimensional error δa X from the preset target dimensions a X and a Y is calculated. (= A X
−a X ) and δa Y (= a Y ′ −a Y ), and store the dimensional errors δa X and δa Y in the memory 38 of the personal computer 32. The target dimensions a X and a Y are previously stored in a ROM or the like as the dimensions of the image M ′ of the mark M on the image P when the robot hand 22 is accurately positioned at the reference position. Among a series of signal processing by the image processing device 36,
The part that executes step S6 corresponds to a dimensional error detecting unit.

そして、ステップS7において、上記メモリ38に記憶さ
れたずれ寸法δX1,δY1,δX2,δY2,寸法誤差δaX,δaY
を取り込み、予め定められた演算式に従ってロボットハ
ンド22のX軸方向のずれ寸法ΔX,Y軸方向のずれ寸法Δ
Y,Z軸方向のずれ寸法ΔZ,X軸まわりのずれ角度αX,Y軸
まわりのずれ角度αを算出する。
Then, in step S7, the deviation size [delta] X 1 stored in the memory 38, δY 1, δX 2, δY 2, dimensional error .delta.a X, .delta.a Y
And the displacement dimension ΔX in the X-axis direction and the displacement dimension Δ in the Y-axis direction of the robot hand 22 in accordance with a predetermined arithmetic expression.
Calculated Y, Z axis direction displacement dimension [Delta] Z, offset angle alpha X around the X axis, the offset angle alpha Y around the Y axis.

ここで、上記ロボットハンド22の位置ずれや角度ずれ
について具体的に説明すると、例えば第5図に示されて
いるように、X軸方向へのみ寸法ΔXの位置ずれを有す
るとともに発光体10およびCCDカメラ16がX−Z平面内
に位置させられている場合、画像P上における像T′は
第6図に示されているように中心OからX軸方向へδX1
だけずれる。このずれ寸法δX1は、CCDカメラ16の視野
角度をθ、CCDカメラ16の視野中心と教示点Tとのずれ
角度をδθ、画像PのX軸方向寸法をPXとすると、そ
れ等との間に次式(1)で表される関係を有し、θおよ
びPXは既知であることからδX1によってずれ角度δθ
が求められる。そして、このずれ角度δθに基づいて
CCDカメラ16と塗装面12との間の距離や撮像角度等から
ずれ寸法ΔXを求めることができるのであり、結局、こ
の場合のずれ寸法ΔXは、画像P上のずれ寸法δX1を変
数とする次式(2)に従って算出される。なお、Y軸方
向のずれ寸法ΔYについても、同様にして次式(3)に
従って算出される。
Here, the positional deviation and the angular deviation of the robot hand 22 will be specifically described. For example, as shown in FIG. 5, the light emitting body 10 and the CCD have a positional deviation of the dimension ΔX only in the X-axis direction. If the camera 16 is is positioned within the X-Z plane, the image T 'on the image P is the X-axis direction from the center O, as shown in Figure 6 [delta] X 1
Just shift. The deviation dimension δX 1 is as follows: θ is the viewing angle of the CCD camera 16, δθ 1 is the deviation angle between the center of the field of view of the CCD camera 16 and the teaching point T, and P X is the dimension of the image P in the X-axis direction. has a relationship represented by the following equation (1) between, theta and P X displaced from it is known by the [delta] X 1 angle .delta..theta 1
Is required. Then, based on the deviation angle .delta..theta 1
And as it can be obtained deviation size ΔX from distance and the imaging angle and the like between the CCD camera 16 and the coated surface 12, after all, the deviation size ΔX in this case, the deviation size [delta] X 1 on the image P as a variable It is calculated according to the following equation (2). Note that the displacement dimension ΔY in the Y-axis direction is similarly calculated according to the following equation (3).

δX1/PX=δθ1/θ ・・・(1) ΔX=f1(δX1) ・・・(2) ΔY=f2(δY1) ・・・(3) また、第7図に示されているように、Z軸方向へのみ
寸法ΔZの位置ずれを有するとともに発光体10およびCC
Dカメラ16がX−Z平面内に位置させられている場合、
画像P上における像T′およびM′は第8図に示されて
いるように、それぞれ中心OからX軸方向へδX1,δX2
だけずれる。これ等のずれ寸法δX1,δX2は、CCDカメラ
16の視野中心からのずれ角度δθ1,δθにそれぞれ対
応する。また、CCDカメラ16から塗装面12に映った発光
体10℃のマークMまでの距離lは、ずれ寸法ΔZに対応
して変化するため、画像P上における像M′の寸法
aX′,aY′も目標寸法aX,aYから変化する。したがって、
この場合のずれ寸法ΔZは、画像P上のずれ寸法δX1,
δX2,寸法誤差δaXを変数とする次式(4)に従って算
出される。なお、寸法誤差δaXの替わりにδaYを用いて
も良い。
δX 1 / P X = δθ 1 / θ (1) ΔX = f 1 (δX 1 ) (2) ΔY = f 2 (δY 1 ) (3) As shown, there is a displacement of dimension ΔZ only in the Z-axis direction,
When the D camera 16 is located in the XZ plane,
As shown in FIG. 8, the images T 'and M' on the image P are respectively δX 1 , δX 2 from the center O in the X-axis direction.
Just shift. These deviation dimensions ΔX 1 and ΔX 2
16 correspond to the deviation angles δθ 1 and δθ 2 from the center of the visual field, respectively. Further, since the distance 1 from the CCD camera 16 to the mark M of the illuminant 10 ° C. reflected on the painted surface 12 changes in accordance with the deviation dimension ΔZ, the size of the image M ′ on the image P is changed.
a X ′, a Y ′ also changes from the target dimensions a X , a Y. Therefore,
The displacement dimension ΔZ in this case is the displacement dimension δX 1 on the image P,
[delta] X 2, is calculated in accordance with the following formula for the dimensional error .delta.a X variable (4). Incidentally, it may be used .delta.a Y instead of dimensional error .delta.a X.

ΔZ=f3(δX1,δX2,δaX) ・・・(4) また、第9図に示されているように、Y軸まわりにの
みαの角度ずれを有するとともに発光体10およびCCD
カメラ16がX−Z平面内に位置させられている場合、画
像P上における像M′は第10図に示されているように、
中心OからX軸方向へδX2だけずれる。このずれ寸法δ
X2は、CCDカメラ16の視野中心からのずれ角度δθ
対応する。また、塗装面12に映った発光体10′のCCDカ
メラ16に対する姿勢やマークMとCCDカメラ16との間の
距離が変化し、画像P上における像M′の寸法aX′,
aY′は、ずれ角度αに対応して目標寸法aX,aYから変
化する。したがって、この場合のずれ角度αは、画像
P上のずれ寸法δX2,寸法誤差δaXを変数とする次式
(5)に従って算出される。なお、寸法誤差δaXの替わ
りにδaYを用いることもできるが、発光体10′の姿勢か
ら寸法誤差δaXの方が大きくなるため、δaXを用いるこ
とが望ましい。X軸まわりのずれ角度αについても、
同様にして次式(6)に従って算出される。
ΔZ = f 3 (δX 1 , δX 2 , δa X ) (4) Further, as shown in FIG. 9, the luminous body 10 and the luminous body 10 have an angular deviation of α Y only around the Y axis. CCD
When the camera 16 is positioned in the XZ plane, the image M 'on the image P is, as shown in FIG.
The center O is shifted by δX 2 in the X-axis direction. This deviation dimension δ
X 2 corresponds to a deviation angle Δθ 2 from the center of the field of view of the CCD camera 16. Further, the posture of the illuminant 10 ′ reflected on the painted surface 12 with respect to the CCD camera 16 and the distance between the mark M and the CCD camera 16 change, and the dimensions a X ′,
a Y ′ changes from the target dimensions a X and a Y corresponding to the shift angle α Y. Accordingly, the deviation angle alpha Y in this case, the deviation size [delta] X 2 on the image P, is calculated according to the following equation to dimensional errors .delta.a X variables (5). Although it is also possible to use a .delta.a Y instead of dimensional error .delta.a X, since the direction of dimensional error .delta.a X from the orientation of the light emitter 10 'increases, it is desirable to use .delta.a X. Regarding the shift angle α X about the X axis,
Similarly, it is calculated according to the following equation (6).

α=f4(δX2,δaX) ・・・(5) α=f5(δY2,δaY) ・・・(6) 第11図は、ロボットハンド22の位置ずれおよび角度ず
れと、画像P上における像T′,M′の位置ずれおよび像
M′の寸法誤差との関係をまとめたものである。また、
上記(2)式〜(6)式は位置ずれΔX,ΔY,ΔZや角度
ずれαXがそれぞれ単独で生じた場合のものである
が、実際にはそれ等の位置ずれや角度ずれは複合して生
じるため、それ等のずれ寸法ΔX,ΔY,ΔZおよびずれ角
度αXは、それぞれ他のずれ寸法やずれ角度を考慮
して総合的に算出される。例えば画像P上の位置ずれδ
X1は、上記第11図からも明らかなようにX軸方向の位置
ずれΔXおよびZ軸方向の位置ずれΔZに共通して生じ
るため、ずれ寸法ΔXの算出に際しては、ずれ寸法δX1
だけでなくずれ寸法ΔZをも考慮する必要がある。更
に、上記ずれ寸法δX1は、厳密には角度ずれαにも影
響されるため、ずれ寸法ΔXをより高い精度で求める場
合には、そのずれ角度αをも考慮しなければならない
のである。
α Y = f 4 (δX 2 , δa X ) (5) α X = f 5 (δY 2 , δa Y ) (6) FIG. 11 shows the positional deviation and angular deviation of the robot hand 22. And the positional deviation of the images T 'and M' on the image P and the dimensional error of the image M '. Also,
The above equations (2) to (6) are for the case where the positional deviations ΔX, ΔY, ΔZ and the angular deviations α X , α Y occur independently, but in practice, these positional deviations and angular deviations Occur in a composite manner, the shift dimensions ΔX, ΔY, ΔZ and the shift angles α X , α Y are comprehensively calculated in consideration of the other shift dimensions and shift angles. For example, displacement δ on image P
As is apparent from FIG. 11, X 1 is generated in common with the displacement ΔX in the X-axis direction and the displacement ΔZ in the Z-axis direction. Therefore, when calculating the displacement dimension ΔX, the displacement dimension δX 1
In addition, it is necessary to consider not only the displacement dimension ΔZ. Furthermore, since the deviation dimension δX 1 is strictly affected by the angle deviation α Y , when the deviation dimension ΔX is determined with higher accuracy, the deviation angle α Y must be considered. .

画像処理装置36による一連の信号処理のうち、上記ス
テップS7を実行する部分がずれ量決定手段に相当する。
In the series of signal processing performed by the image processing device 36, the part that executes step S7 corresponds to a shift amount determining unit.

そして、このようなステップS1〜S7がN回繰り返さ
れ、ずれ寸法ΔX,ΔY,ΔZおよびずれ角度αXがそ
れぞれN個ずつ求められると、ステップS9において、そ
れ等の平均値や標準偏差などを求める統計処理が行わ
れ、X軸方向,Y軸方向,Z軸方向,Y軸まわり,X軸まわりの
教示位置修正データが作成される。その後、かかる教示
位置修正データを作業者がパソコン32によって確認し、
この教示位置修正データに従ってティーチングを修正す
る旨の判断が為されると、ステップS10において教示位
置修正データがロボット制御装置34へ出力され、その修
正データをロボット30の各軸のずれ量に換算してロボッ
トハンド22の位置や姿勢を修正するとともに、パソコン
32に記憶されている教示位置データが書き換えられる。
Then, such steps S1 to S7 are repeated N times, and when the deviation dimensions ΔX, ΔY, ΔZ and the deviation angles α X , α Y are obtained N each, in step S9, the average value and standard value thereof are obtained. Statistical processing for obtaining a deviation or the like is performed, and teaching position correction data in the X-axis direction, the Y-axis direction, the Z-axis direction, around the Y-axis, and around the X-axis is created. After that, the operator confirms the teaching position correction data with the personal computer 32,
When it is determined that the teaching is to be corrected in accordance with the teaching position correction data, the teaching position correction data is output to the robot controller 34 in step S10, and the correction data is converted into the amount of displacement of each axis of the robot 30. To correct the position and posture of the robot hand 22
The teaching position data stored in 32 is rewritten.

このように、かかる本実施例の塗面検査装置において
は、CCDカメラ16によって撮像された画像P上における
教示点TおよびマークMの像T′,M′の画像中心Oから
のずれ寸法δX1,δY1,δX2,δY2、および像M′の寸法
誤差δaX,δaYに基づいて、ロボットハンド22の基準位
置からのずれ寸法ΔX,ΔY,ΔZやずれ角度αXを求
め、これに従ってロボットハンド22の位置ずれを修正す
るようになっているため、作業者が試行錯誤で位置ずれ
や角度ずれを修正していた従来の場合に比較して、その
修正が自動的に短時間でしかも高い精度で行われる得る
のである。
As described above, in the coating surface inspection apparatus according to the present embodiment, the deviation dimension δX 1 of the images T ′ and M ′ of the teaching point T and the mark M on the image P captured by the CCD camera 16 from the image center O. , δY 1 , δX 2 , δY 2 and the dimensional errors δa X , δa Y of the image M ′, the deviation dimensions ΔX, ΔY, ΔZ from the reference position of the robot hand 22 and the deviation angles α X , α Y The position deviation of the robot hand 22 is corrected in accordance with this, so that the correction is automatically performed compared to the conventional case where the worker corrected the position deviation and the angle deviation by trial and error. It can be done in a short time and with high accuracy.

以上、本発明の一実施例を図面に基づいて詳細に説明
したが、本発明は他の態様で実施することもできる。
As mentioned above, although one Example of this invention was described in detail based on drawing, this invention can be implemented in another aspect.

例えば、前記実施例では本発明が塗装面12の平滑度な
どを検査する装置のティーチング修正に適用された場合
について説明したが、シーリングロボットや溶接ロボッ
トなどの他のロボットについても、ティーチング箇所に
適当な反射面を付与することにより、そのティーチング
修正に際して本発明を適用することができる。
For example, in the above-described embodiment, the case where the present invention is applied to the teaching correction of the device for inspecting the smoothness of the painted surface 12 and the like has been described. However, other robots such as a sealing robot and a welding robot are also suitable for teaching locations. The present invention can be applied at the time of teaching correction by providing a suitable reflecting surface.

また、本発明によればずれ寸法やずれ角度が定量的に
求められるため、それ等に基づいてロボットの位置決め
精度を評価したり、ロボットの移動に同期して第2基準
点を発光させる場合にその発光タイミングのずれを検出
したりするなど、ティーチング修正以外にも本発明は利
用され得る。
Further, according to the present invention, since the displacement dimension and the displacement angle are quantitatively obtained, the positioning accuracy of the robot is evaluated based on the displacement size and the displacement angle and the displacement of the second reference point in synchronization with the movement of the robot. The present invention can be used for other than teaching correction, such as detecting the shift of the light emission timing.

また、前記実施例ではロボットハンド22のずれ寸法Δ
X,ΔY,ΔZやずれ角度αXが演算式によって算出さ
れるようになっているが、予め作成されたデータマップ
などから読み取るようにしても差し支えない。
Further, in the above embodiment, the deviation dimension Δ of the robot hand 22
Although X, ΔY, ΔZ and the deviation angles α X , α Y are calculated by an arithmetic expression, they may be read from a data map created in advance.

また、前記実施例では縞模様板26に設けられたマーク
Mの像M′の寸法誤差δaX,δaYを検出するようになっ
ているが、教示点Tとして所定の寸法のものを設定し、
その教示点Tの像T′の寸法誤差を検出するようにして
も良い。
In the above-described embodiment, the dimensional errors δa X and δa Y of the image M ′ of the mark M provided on the striped plate 26 are detected. ,
The dimensional error of the image T 'of the teaching point T may be detected.

また、前記実施例では第2基準点としてのマークMが
散乱光を発する発光体10の縞模様板26に設けられている
が、この第2基準点は、外部の環境等により少なくとも
塗装面10に映るように設けられれば良い。
Further, in the above embodiment, the mark M as a second reference point is provided on the striped plate 26 of the luminous body 10 that emits scattered light. What is necessary is just to be provided so that it may be reflected.

また、前記実施例では作業者の判断によりティーチン
グの修正を行うか否かが決定されるが、修正データに従
って自動的にティーチングの修正を行うようにしても差
支えない。
In the above-described embodiment, whether or not the teaching is to be corrected is determined by the operator. However, the teaching may be automatically corrected according to the correction data.

また、前記実施例では発光体10およびCCDカメラ16が
X−Z平面内に位置させられている場合の画像処理につ
いて説明したが、ロボットハンド22をZ軸まわりに90゜
回転させて発光体10およびCCDカメラ16をY−Z平面内
に位置させ、それ等の2位置で撮像した2種類の画像に
基づいてロボットハンド22の位置ずれや角度ずれを検出
するようにすることもできる。
Further, in the above embodiment, the image processing in the case where the light emitter 10 and the CCD camera 16 are positioned in the XZ plane has been described, but the robot hand 22 is rotated by 90 ° about the Z axis and the light emitter 10 is rotated. Alternatively, the CCD camera 16 may be positioned in the YZ plane, and the position shift and the angle shift of the robot hand 22 may be detected based on two types of images captured at those two positions.

また、前記実施例ではずれ寸法ΔX,ΔY,ΔZおよびず
れ角度αXを検出するようになっているが、必ずし
もそれ等の総てを検出するように構成する必要はなく、
ロボットの種類によってはΔX,ΔYおよびαのみなど
それ等の一部を検出するだけでも差支えない。
Further, in the above embodiment, the shift dimensions ΔX, ΔY, ΔZ and the shift angles α X , α Y are detected, but it is not always necessary to detect all of them.
Depending on the type of robot no problem just detecting the part of it such as such only [Delta] X, [Delta] Y and alpha X.

その他一々例示はしないが、本発明は当業者の知識に
基づいて種々の変更,改良を加えた態様で実施すること
ができる。
Although not specifically exemplified, the present invention can be implemented in various modified and improved modes based on the knowledge of those skilled in the art.

【図面の簡単な説明】[Brief description of the drawings]

第1図は本発明が適用された塗面検査装置の概略構成図
である。第2図は第1図の装置においてCCDカメラによ
り撮像された画像の一例を説明する図である。第3図は
第1図の装置の発光体に設けられた縞模様板を示す図で
ある。第4図は第1図の装置においてティーチングを修
正するための作動を説明するフローチャートである。第
5図は第1図の装置におけるX軸方向の位置ずれを説明
する図である。第6図は第5図の場合にCCDカメラによ
り撮像された画像を説明する図である。第7図は第1図
の装置におけるZ軸方向の位置ずれを説明する図であ
る。第8図は第7図の場合にCCDカメラにより撮像され
た画像を説明する図である。第9図は第1図の装置にお
けるY軸まわりの角度ずれを説明する図である。第10図
は第9図の場合にCCDカメラにより撮像された画像を説
明する図である。第11図は第1図の装置におけるロボッ
トハンドの位置ずれおよび角度ずれと、画像上における
教示点およびマークの位置ずれおよび寸法誤差との関係
を示す図である。第12図は従来の塗面検査装置の概略構
成図である。第13図は塗装面に設けられた教示点を示す
図である。第14図は第12図の装置をティーチングする際
に用いられるプローブを示す図である。第15図は第12図
の装置の発光体に設けられる縞模様板を示す図である。
第16図は第12図の装置においてティーチングを修正する
際の作動を説明するフローチャートである。 12:塗装面(基準面) 16:CCDカメラ(撮像装置) 22:ロボットハンド(可動部) 26:縞模様板(第2基準部材) 30:ロボット、36:画像処理装置 T:教示点(第1基準点) M:マーク(第2基準点) P:画像 O:画像中心(第1目標位置,第2目標位置) T′:画像上の第1基準点 M′:画像上の第2基準点 ステップS2,S3:第1位置ずれ検出手段 ステップS4,S5:第2位置ずれ検出手段 ステップS6:寸法誤差検出手段 ステップS7:ずれ量決定手段
FIG. 1 is a schematic configuration diagram of a painted surface inspection apparatus to which the present invention is applied. FIG. 2 is a view for explaining an example of an image picked up by a CCD camera in the apparatus shown in FIG. FIG. 3 is a view showing a striped plate provided on the luminous body of the apparatus of FIG. FIG. 4 is a flowchart for explaining the operation for correcting teaching in the apparatus shown in FIG. FIG. 5 is a view for explaining a displacement in the X-axis direction in the apparatus shown in FIG. FIG. 6 is a view for explaining an image captured by the CCD camera in the case of FIG. FIG. 7 is a view for explaining a positional shift in the Z-axis direction in the apparatus of FIG. FIG. 8 is a view for explaining an image picked up by the CCD camera in the case of FIG. FIG. 9 is a view for explaining an angle shift around the Y axis in the apparatus of FIG. FIG. 10 is a view for explaining an image picked up by a CCD camera in the case of FIG. FIG. 11 is a diagram showing a relationship between the positional deviation and the angular deviation of the robot hand in the apparatus of FIG. 1, and the positional deviation and the dimensional error of the teaching point and the mark on the image. FIG. 12 is a schematic configuration diagram of a conventional painted surface inspection apparatus. FIG. 13 is a diagram showing teaching points provided on a painted surface. FIG. 14 is a view showing a probe used when teaching the apparatus of FIG. FIG. 15 is a view showing a striped plate provided on the luminous body of the device of FIG.
FIG. 16 is a flow chart for explaining the operation when correcting teaching in the apparatus shown in FIG. 12: Painted surface (reference surface) 16: CCD camera (imaging device) 22: Robot hand (movable part) 26: Striped plate (second reference member) 30: Robot, 36: Image processing device T: Teaching point (No. M: mark (second reference point) P: image O: image center (first target position, second target position) T ': first reference point on image M': second reference point on image Point Step S2, S3: First displacement detection means Step S4, S5: Second displacement detection means Step S6: Dimension error detection means Step S7: Displacement amount determination means

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】光を反射する鏡面状の基準面に対して相対
移動させられるロボットの可動部が、該基準面上に設け
られた第1基準点に対して、該基準面に対する姿勢を含
めて予め定められた基準位置に位置させられているか否
かを検出する装置であって、 予め定められた位置に第2基準点が設けられて、該第2
基準点が前記基準面に映るように前記可動部に位置固定
に配設された第2基準部材と、 前記可動部が前記基準位置の近傍へ移動させられること
により、前記基準面に映っている前記第2基準点が前記
第1基準点と共に撮像視野内に入るように、該可動部に
位置固定に配設された撮像装置と、 該撮像装置によって撮像された画像上における前記第1
基準点と、前記可動部が前記基準位置に位置させられて
いる場合に該画像上において該第1基準点が位置する予
め定められた第1目標位置とのずれ寸法を検出する第1
位置ずれ検出手段と、 前記画像上における前記第2基準点と、前記可動部が前
記基準位置に位置させられている場合に該画像上におい
て該第2基準点が位置する予め定められた第2目標位置
とのずれ寸法を検出する第2位置ずれ検出手段と、 前記画像上における前記第1基準点および第2基準点の
少なくとも一方の大きさと、前記可動部が前記基準位置
に位置させられている場合の該画像上における該一方の
基準点の大きさとして予め定められた目標寸法との誤差
を検出する寸法誤差検出手段と、 前記第1位置ずれ検出手段,第2位置ずれ検出手段,お
よび寸法誤差検出手段によってそれぞれ検出された前記
画像上における位置ずれ寸法および大きさの寸法誤差に
基づいて、前記可動部の前記基準位置に対するずれ寸法
およびずれ角度を求めるずれ量決定手段と を有することを特徴とするロボットの位置ずれ検出装
置。
A movable part of a robot which is relatively moved with respect to a mirror-like reference plane reflecting light includes a posture with respect to a first reference point provided on the reference plane, with respect to the reference plane. A second reference point is provided at a predetermined position, wherein the second reference point is provided at a predetermined position.
A second reference member disposed at a fixed position on the movable portion so that the reference point is reflected on the reference surface; and the movable portion is moved to a position near the reference position, thereby being reflected on the reference surface. An imaging device fixedly disposed on the movable unit so that the second reference point enters the imaging field of view together with the first reference point; and the first imaging device on the image captured by the imaging device.
A first step of detecting a deviation dimension between a reference point and a predetermined first target position where the first reference point is located on the image when the movable portion is located at the reference position;
Position deviation detecting means, the second reference point on the image, and a second predetermined reference position where the second reference point is located on the image when the movable portion is located at the reference position. A second positional deviation detecting means for detecting a deviation size from a target position, a size of at least one of the first reference point and the second reference point on the image, and the movable portion being located at the reference position. Dimensional error detecting means for detecting an error from a predetermined target size as the size of the one reference point on the image when the first position shift is detected, the first position shift detecting means, the second position shift detecting means, A displacement dimension and a displacement angle of the movable portion with respect to the reference position are determined based on the displacement error and the displacement error on the image detected by the displacement error detecting means. Positional deviation detecting apparatus for a robot, characterized in that it comprises a Ruzure amount determining means.
JP18594390A 1990-07-13 1990-07-13 Robot displacement detection device Expired - Fee Related JP2718249B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18594390A JP2718249B2 (en) 1990-07-13 1990-07-13 Robot displacement detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18594390A JP2718249B2 (en) 1990-07-13 1990-07-13 Robot displacement detection device

Publications (2)

Publication Number Publication Date
JPH0477806A JPH0477806A (en) 1992-03-11
JP2718249B2 true JP2718249B2 (en) 1998-02-25

Family

ID=16179599

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18594390A Expired - Fee Related JP2718249B2 (en) 1990-07-13 1990-07-13 Robot displacement detection device

Country Status (1)

Country Link
JP (1) JP2718249B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004276151A (en) * 2003-03-13 2004-10-07 Yaskawa Electric Corp Transfer robot and teaching method for transfer robot
JP5298919B2 (en) * 2009-02-16 2013-09-25 トヨタ自動車株式会社 Robot hand position correction method, robot hand, robot
JP5610211B2 (en) * 2010-09-24 2014-10-22 株式会社Ihi Projection surface information presentation apparatus and method
JP2014188617A (en) * 2013-03-27 2014-10-06 Seiko Epson Corp Robot control system, robot, robot control method, and program
CN111102940B (en) * 2018-10-29 2022-07-05 北京金风科创风电设备有限公司 Blade pitch angle deviation detection method, device, storage medium and system

Also Published As

Publication number Publication date
JPH0477806A (en) 1992-03-11

Similar Documents

Publication Publication Date Title
US10357879B2 (en) Robot zero-point calibration device and method
JP6280525B2 (en) System and method for runtime determination of camera miscalibration
US8059151B2 (en) Method for planning an inspection path for determining areas that are to be inspected
JP2002090113A (en) Position and attiude recognizing device
JP3754402B2 (en) Industrial robot control method and control apparatus
US20220410375A1 (en) Coordinate system alignment method, alignment system, and alignment device for robot
JP2509357B2 (en) Work position detector
KR102147777B1 (en) The robot auto teaching system using image and laser hybrid signal, and the method thereof
JPS62206684A (en) Position and shape measuring method by pattern projection
JPS6332306A (en) Non-contact three-dimensional automatic dimension measuring method
JP2718249B2 (en) Robot displacement detection device
JPH058185A (en) Automatic operation error measuring method of robot body
JPH0626770B2 (en) Workpiece fitting method
JP4284765B2 (en) Robot hand position measuring device
JP2001246582A (en) Working robot device
JPH1011146A (en) Device for correcting stop posture of mobile object
JPH0774964B2 (en) Robot positioning error correction method
JP3195850B2 (en) Method and apparatus for measuring three-dimensional position on curved surface
JPH02243914A (en) Three-dimensional coordinate measuring instrument
Kuhmstedt et al. Phasogrammetric optical 3D sensor for the measurement of large objects
JPH012104A (en) Robot positioning error correction method
JP3224687B2 (en) 3D contour position correction method
JPH08292019A (en) Calibration method for article detecting device
JP3562096B2 (en) Position detection method
JP2016187851A (en) Calibration device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081114

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081114

Year of fee payment: 11

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091114

Year of fee payment: 12

LAPS Cancellation because of no payment of annual fees