JPH04269194A - Plane measuring method - Google Patents

Plane measuring method

Info

Publication number
JPH04269194A
JPH04269194A JP2992891A JP2992891A JPH04269194A JP H04269194 A JPH04269194 A JP H04269194A JP 2992891 A JP2992891 A JP 2992891A JP 2992891 A JP2992891 A JP 2992891A JP H04269194 A JPH04269194 A JP H04269194A
Authority
JP
Japan
Prior art keywords
marker
robot
center
work
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2992891A
Other languages
Japanese (ja)
Inventor
Satoshi Komada
聡 駒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2992891A priority Critical patent/JPH04269194A/en
Publication of JPH04269194A publication Critical patent/JPH04269194A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To correctly detect the position and direction, even in case of a work object face being slipped, with respect to a plane measuring method detecting the work object face of a robot. CONSTITUTION:In the case of a work object face 1 being slipped a marker 2 provided on the work object face 1 is picked up at its image by a visual sensor 3, then the contour 2a and center 2b in the picture image 4 thereof are viewed with their sliding relatively. A picture image processing part 5 detects the sliding thereof from the data of the picture image 4. Namely, the respective gravity coordinate of the contour 2a and center 2b is found, and the slippage between the two gravity coordinates thereof is detected. The slippage between these two gravity coordinates is equivalent to the slippage of the work object face 1.

Description

【発明の詳細な説明】[Detailed description of the invention]

【0001】0001

【産業上の利用分野】本発明は、ロボットの作業対象面
の方向 (ずれ)を検出する平面計測方法に関し、特に
作業対象面に設けたマーカを撮像し、その画像から得ら
れる情報に基づいて作業対象面の方向を検出する平面計
測方法に関する。
[Industrial Application Field] The present invention relates to a plane measurement method for detecting the direction (displacement) of a work surface of a robot, and in particular, the present invention relates to a plane measurement method for detecting the direction (shift) of a work surface of a robot. This invention relates to a plane measurement method for detecting the direction of a work surface.

【0002】ロボットに作業を行わせる場合、作業対象
に対してロボットハンドを正確に位置づけることが必要
となる。例えば、ロボットに部品の取りつけ作業を行わ
せる場合、(1)取りつけるべき部品の把持、(2)部
品の運搬、(3)締結または嵌合といった作業工程が考
えられ、このうち、(1)部品の把持、及び(3)締結
等の作業工程においては、その作業対象面に対して、ロ
ボットハンドを正対させる(垂直に位置づける)ことが
必要となる。
[0002] When a robot performs work, it is necessary to accurately position the robot hand with respect to the work object. For example, when a robot is used to attach parts, the following work steps can be considered: (1) grasping the part to be attached, (2) transporting the part, and (3) fastening or fitting the part. In work processes such as gripping and (3) fastening, it is necessary to directly face (position perpendicularly) the robot hand to the surface to be worked on.

【0003】0003

【従来の技術】従来、ロボットに、上述した(1)や(
3)の様な作業を行わせる際には、予めティーチングボ
ックス等の手段により、作業対象となる部品の位置や方
向をすべて教示しておく必要があった。ロボットは、そ
の教示された位置や方向に部品があるとしてロボットハ
ンドを動作させ、作業を行う。
[Prior Art] Conventionally, robots have been used in the above-mentioned (1) and (
When performing work such as 3), it is necessary to teach all the positions and directions of the parts to be worked on in advance using means such as a teaching box. The robot operates the robot hand and performs the work assuming that the part is located at the taught position and direction.

【0004】0004

【発明が解決しようとする課題】しかし、作業対象とな
る部品は、いつも同じ位置や方向にあるとは限らず、何
らかの原因によりずれてしまう場合もある。このような
場合、その部品の位置や方向は、教示した時点における
位置や方向と一致しない。このため、ロボットは、ロボ
ットハンドを正確に動作させることができなくなり、ロ
ボットによる作業が、それ以降は継続不能になるという
問題点があった。
[Problems to be Solved by the Invention] However, the parts to be worked on are not always in the same position or direction, and may shift due to some reason. In such a case, the position and orientation of the component do not match the position and orientation at the time of teaching. As a result, the robot is no longer able to move the robot hand accurately, resulting in a problem that the robot cannot continue its work from then on.

【0005】本発明はこのような点に鑑みてなされたも
のであり、作業対象がずれた場合でも、その作業対象と
なる面の位置や方向を正確に検出することができる平面
計測方法を提供することを目的とする。
The present invention has been made in view of these points, and provides a plane measurement method that can accurately detect the position and direction of the surface to be worked on even if the work target is shifted. The purpose is to

【0006】また、本発明の他の目的は、作業対象面の
方向検出に有効なマーカを提供することである。
Another object of the present invention is to provide a marker that is effective for detecting the direction of a surface to be worked on.

【0007】[0007]

【課題を解決するための手段】図1に本発明の原理説明
図を示す。ロボットの作業対象面1にマーカ2を設ける
。このマーカ2は、例えば作業対象面1に平行で一定距
離離れた2つの平面内にそれぞれ存在する2面2a、2
bを有する。その2面2a、2bは、2つの平面に垂直
な同一直線上にそれぞれの中心点を持ち、一方の面 (
輪郭部) 2aはより大きな輪環状または角状の上下左
右対称の面であり、他方の面 (中心部) 2bはより
小さな中実状の面である。
[Means for Solving the Problems] FIG. 1 is a diagram illustrating the principle of the present invention. A marker 2 is provided on a work surface 1 of the robot. This marker 2 is, for example, two planes 2a and 2 that exist in two planes parallel to the work surface 1 and separated by a certain distance.
It has b. The two surfaces 2a and 2b have their center points on the same straight line perpendicular to the two planes, and one surface (
The contour portion 2a is a larger annular or angular vertically symmetrical surface, and the other surface (center portion) 2b is a smaller solid surface.

【0008】このマーカ2を視覚センサ3で撮像するよ
うに構成する。その画像4のデータは画像処理部5に送
られる。画像処理部5では、その画像4のデータから、
輪郭部2aの代表座標及び中心部2bの代表座標を求め
る。その2つの代表座標から、作業対象面1の方向を検
出する。
The marker 2 is configured to be imaged by a visual sensor 3. The data of the image 4 is sent to the image processing section 5. In the image processing unit 5, from the data of the image 4,
The representative coordinates of the contour portion 2a and the representative coordinates of the center portion 2b are determined. The direction of the work surface 1 is detected from the two representative coordinates.

【0009】[0009]

【作用】作業対象面1に設けられるマーカ2は、輪郭部
2aと中心部2bとを持つ。この輪郭部2aと中心部2
bとのそれぞれの中心点を結ぶ直線上に視覚センサ3を
設置してマーカ2を撮像すると、その各中心点は一致し
て見える。
[Operation] The marker 2 provided on the work surface 1 has a contour portion 2a and a center portion 2b. This contour part 2a and the center part 2
If the visual sensor 3 is installed on a straight line connecting the center points of the marker 2 and the marker 2, the center points of the marker 2 will appear to match.

【0010】ここで、作業対象面1が移動してずれた場
合、マーカ2を視覚センサ3で撮像すると、その画像4
における輪郭部2aと中心部2bとは相対的にずれて見
える。画像処理部5は、そのずれを画像4のデータから
検出する。すなわち、画像4において、輪郭部2a及び
中心部2bのそれぞれの代表座標を求め、その2つの代
表座標間のずれを検出する。この2つの代表座標間のず
れが作業対象面1の方向に相当する。
[0010] Here, when the work surface 1 moves and shifts, when the marker 2 is imaged by the visual sensor 3, the image 4
The outline portion 2a and the center portion 2b appear to be relatively shifted from each other. The image processing unit 5 detects the shift from the data of the image 4. That is, in the image 4, representative coordinates of the contour portion 2a and the center portion 2b are determined, and a deviation between the two representative coordinates is detected. The deviation between these two representative coordinates corresponds to the direction of the work surface 1.

【0011】このため、作業対象面1がずれた場合でも
、マーカ2を撮像するだけでその方向を検出することが
できる。また、その検出データに基づいて、ロボットハ
ンドの位置を補正し、ロボットを正確に動作させること
ができる。したがって、作業対象面1がずれた場合でも
、ロボットによる作業を継続して行うことができる。
Therefore, even if the work surface 1 shifts, its direction can be detected simply by capturing an image of the marker 2. Furthermore, based on the detected data, the position of the robot hand can be corrected, and the robot can be operated accurately. Therefore, even if the work surface 1 shifts, the robot can continue to work.

【0012】0012

【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図2は本発明の平面計測方法を実施するための
全体構成を示す図である。図において、ロボット30の
ハンド31にはテレビカメラ (視覚センサ) 3が取
り付けられている。ロボット30はロボット制御装置4
0によって制御される。部品10の作業対象面1には、
マーカ2が設けられている。その詳細は後述する。テレ
ビカメラ3はマーカ2を撮像し、その画像データを画像
処理部5に送る。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 2 is a diagram showing the overall configuration for implementing the plane measurement method of the present invention. In the figure, a television camera (visual sensor) 3 is attached to a hand 31 of a robot 30. The robot 30 is the robot control device 4
Controlled by 0. On the work target surface 1 of the part 10,
A marker 2 is provided. The details will be described later. The television camera 3 images the marker 2 and sends the image data to the image processing section 5.

【0013】画像処理部5はプロセッサ(CPU)51
を中心に構成されている。ROM52には、本発明を実
施するためのプログラムが格納され、プロセッサ51は
、このプログラムに従って作業対象面1の計測動作等を
制御する。RAM53はフレームメモリであり、マーカ
2の形状データ等が格納されている。RAM54には、
テレビカメラ3からの画像データがインタフェース59
を経由して格納される。画像処理プロセッサ55は、R
AM53、54の各データに基づいて、マーカ2の代表
座標のずれを求める。その詳細は後述する。この代表座
標のずれに関するデータはRAM56に格納される。
The image processing section 5 includes a processor (CPU) 51
It is mainly composed of. A program for implementing the present invention is stored in the ROM 52, and the processor 51 controls the measurement operation of the work surface 1 according to this program. The RAM 53 is a frame memory, and stores shape data of the marker 2 and the like. In RAM54,
Image data from the television camera 3 is sent to the interface 59
Stored via . The image processing processor 55 is R
Based on each data of AM53 and AM54, the deviation of the representative coordinates of marker 2 is determined. The details will be described later. Data regarding this shift in representative coordinates is stored in the RAM 56.

【0014】ロボット制御装置40は、RAM56に格
納された上記データを通信回線57を経由してインタフ
ェース58から読み取り、そのデータに基づいて作業対
象面1の方向を認識し、ロボット30を制御する。
The robot control device 40 reads the data stored in the RAM 56 from the interface 58 via the communication line 57, recognizes the direction of the work surface 1 based on the data, and controls the robot 30.

【0015】図3は本発明に使用されるマーカの例を示
す図であり、(A)は円錐状の加工穴形状を有するマー
カを、(B)は円錐状の突起形状を有するマーカを、(
C)は四角錐状の突起形状を有するマーカをそれぞれ示
す。図3(A)に示すマーカ2は、作業対象面1に円錐
状の加工穴を施したものである。図3(B)に示すマー
カ20は円錐状の突起形状を有し、マーカ2に比べより
簡単に制作することができる。また、作業対象面1上に
設置すればよいので、簡易に使用することができる。 図3(C)に示すマーカ21は四角錐状の突起形状を有
する。このマーカ21の利点は、その画像も四角形とな
るため、後述する輪郭部21aのウインドによる切り出
しが容易になるということである。また、マーカ20と
同様に、設置するだけなので、簡易に使用することがで
きる。
FIG. 3 shows examples of markers used in the present invention, in which (A) shows a marker having a conical hole shape, (B) shows a marker having a conical projection shape, and (B) shows a marker having a conical protrusion shape. (
C) shows markers each having a quadrangular pyramidal protrusion shape. The marker 2 shown in FIG. 3(A) has a conical hole machined on the surface 1 to be worked on. The marker 20 shown in FIG. 3(B) has a conical protrusion shape and can be manufactured more easily than the marker 2. Moreover, since it only needs to be installed on the work surface 1, it can be used easily. The marker 21 shown in FIG. 3(C) has a quadrangular pyramidal protrusion shape. The advantage of this marker 21 is that since the image thereof also has a rectangular shape, it is easy to cut out the outline portion 21a using a window, which will be described later. Further, like the marker 20, it is easy to use because it only needs to be installed.

【0016】各マーカは2面を有し、その各マーカの2
面2aと2b、20aと20b、21aと21bは、作
業対象面1に平行で一定距離離れた2つの平面内にそれ
ぞれ存在し、その2つの平面に垂直な同一直線上にそれ
ぞれの中心点を持つ。輪郭部2a、20a、21aはそ
れぞれ、より大きな輪環状または角状の上下左右対称の
面であり、中心部2b、20b、21bはより小さな中
実状の面である。各輪郭部及び中心部は黒色に塗装され
ており、テレビカメラ3による画像4において容易に識
別できるようになっている。
Each marker has two sides, and each marker has two sides.
Surfaces 2a and 2b, 20a and 20b, and 21a and 21b each exist in two planes parallel to work surface 1 and separated by a certain distance, and their center points are on the same straight line perpendicular to the two planes. have The contour portions 2a, 20a, and 21a are each larger annular or angular symmetrical surfaces, and the center portions 2b, 20b, and 21b are smaller solid surfaces. Each contour part and center part are painted black so that they can be easily identified in the image 4 taken by the television camera 3.

【0017】図4は本発明の平面計測方法を説明するた
めの図であり、(A)はテレビカメラによる撮像状況を
、(B)はテレビカメラがL1方向から撮像したときの
画像を、(C)はテレビカメラがL2方向から撮像した
ときの画像をそれぞれ示す。図4(A)において、まず
テレビカメラ3が、マーカ2を撮像する。このマーカ2
は、上述したように、作業対象面1に円錐状の加工穴を
施して作成されたものであり、輪郭部2a及び中心部 
(基底部) 2bの2面を有する。また、マーカ2の代
表座標として、重心座標を用いた場合について説明する
FIG. 4 is a diagram for explaining the plane measurement method of the present invention, in which (A) shows the image taken by the television camera, (B) shows the image taken by the television camera from the L1 direction, and ( C) shows images taken by the television camera from the L2 direction. In FIG. 4(A), first, the television camera 3 images the marker 2. This marker 2
As mentioned above, is created by machining a conical hole on the work surface 1, and the contour part 2a and the center part
(Base part) It has two faces 2b. Furthermore, a case will be described in which the center of gravity coordinates are used as the representative coordinates of the marker 2.

【0018】マーカ2をテレビカメラ3がL1方向から
撮像すると、その取得画像4は図4(B)に示すように
なり、マーカ2の中心部2bの位置が、輪郭部2aに対
して相対的にずれる。画像処理部5は、この画像4のデ
ータに基づいて、輪郭部2aの重心座標及び中心部2b
の重心座標をそれぞれ求める。この場合、中心部2bの
重心座標は、輪郭部2aを消去 (ウインドで切り出し
) した状態で求める。
When the television camera 3 images the marker 2 from the L1 direction, the obtained image 4 becomes as shown in FIG. It shifts to Based on the data of this image 4, the image processing unit 5 calculates the barycenter coordinates of the contour portion 2a and the center portion 2b.
Find the coordinates of the center of gravity of each. In this case, the barycentric coordinates of the center portion 2b are determined with the contour portion 2a erased (cut out with a window).

【0019】ここで、座標系を図に示すように設定し、
輪郭部2aのX方向座標をX2、中心部2bのX方向座
標をX1とすれば、 X1>X2 となる。このX方向座標を一致させるためにテレビカメ
ラ3の撮像方向を変更する。すなわち、ロボットハンド
31 (テレビカメラ3) をロボットハンド31のβ
軸の正の方向に回転させる。なお、ロボット30のロボ
ットハンド31は、α軸、β軸、γ軸からなり、その各
軸は図4(A)に示すようにX、Y、Z軸を中心にして
回転するものとする。
[0019] Now, set the coordinate system as shown in the figure,
If the X-direction coordinate of the contour portion 2a is X2, and the X-direction coordinate of the center portion 2b is X1, then X1>X2. The imaging direction of the television camera 3 is changed to match the X-direction coordinates. In other words, the robot hand 31 (TV camera 3) is
Rotate in the positive direction of the axis. Note that the robot hand 31 of the robot 30 is composed of α, β, and γ axes, and each of the axes rotates around the X, Y, and Z axes as shown in FIG. 4(A).

【0020】逆に、マーカ2をテレビカメラ3がL2方
向から撮像すると、その取得画像4は図4(C)に示す
ようになり、このときのX方向座標X1、X2はX1<
X2 となる。したがって、ロボットハンド31 (テレビカ
メラ3) をβ軸の負の方向に回転させる。
Conversely, when the television camera 3 images the marker 2 from the L2 direction, the obtained image 4 becomes as shown in FIG. 4(C), and the X-direction coordinates X1 and X2 at this time are
It becomes X2. Therefore, the robot hand 31 (television camera 3) is rotated in the negative direction of the β axis.

【0021】以上の動作をα軸方向 (Y軸方向) に
ついても行い、最終的に X1=X2 Y1=Y2 となるように、テレビカメラ3を移動すれば、輪郭部2
a及び中心部2bの各重心座標を一致させることができ
る。そのとき、テレビカメラ3すなわちロボットハンド
31を作業対象面1が正対している。
[0021] If the above operation is also performed in the α-axis direction (Y-axis direction) and the television camera 3 is moved so that finally X1=X2 Y1=Y2, the contour part 2
It is possible to match the barycenter coordinates of a and the center portion 2b. At this time, the work surface 1 is directly facing the television camera 3, that is, the robot hand 31.

【0022】図5及び図6は本発明の平面計測方法を実
行するためのフローチャートであり、図5はステップS
1〜S7を、図6はステップS8〜S11を示す。図に
おいて、Sに続く数値はステップ番号を示す。 〔S1〕マーカ2をテレビカメラ3で撮像する。 〔S2〕輪郭部2aの重心座標を求める。 〔S3〕中心部2bの重心座標を求める。 〔S4〕輪郭部2aの重心座標のX方向座標X2と、中
心部2bの重心座標のX方向座標X1とが等しいか否か
を判別する。等しいならS8に、等しくないならS5に
進む。 〔S5〕X1がX2より大きいか否かを判別する。大き
ければS6に、小さければS7に進む。 〔S6〕+β軸回りにロボットハンド31 (テレビカ
メラ3) を回転させる。 〔S7〕−β軸回りにロボットハンド31 (テレビカ
メラ3) を回転させる。 〔S8〕輪郭部2aの重心座標のY方向座標Y2と、中
心部2bの重心座標のY方向座標Y1とが等しいか否か
を判別する。等しいならプログラムを終了し、等しくな
いならS9に進む。 〔S9〕Y1がY2より大きいか否かを判別する。大き
ければS10に、小さければS11に進む。 〔S10〕+α軸回りにロボットハンド31 (テレビ
カメラ3) を回転させる。 〔S11〕−α軸回りにロボットハンド31 (テレビ
カメラ3) を回転させる。
FIGS. 5 and 6 are flowcharts for carrying out the plane measurement method of the present invention, and FIG.
1 to S7, and FIG. 6 shows steps S8 to S11. In the figure, the number following S indicates the step number. [S1] Image the marker 2 with the television camera 3. [S2] Find the coordinates of the center of gravity of the contour portion 2a. [S3] Find the coordinates of the center of gravity of the center portion 2b. [S4] It is determined whether the X-direction coordinate X2 of the center of gravity coordinate of the contour portion 2a is equal to the X-direction coordinate X1 of the center of gravity coordinate of the center portion 2b. If they are equal, proceed to S8; if not, proceed to S5. [S5] Determine whether X1 is greater than X2. If it is larger, proceed to S6; if smaller, proceed to S7. [S6] Rotate the robot hand 31 (TV camera 3) around the +β axis. [S7] - Rotate the robot hand 31 (TV camera 3) around the β axis. [S8] It is determined whether the Y-direction coordinate Y2 of the center of gravity coordinate of the contour portion 2a is equal to the Y-direction coordinate Y1 of the center of gravity coordinate of the center portion 2b. If they are equal, the program ends; if they are not equal, the process advances to S9. [S9] Determine whether Y1 is greater than Y2. If it is larger, the process goes to S10, and if it is smaller, the process goes to S11. [S10] Rotate the robot hand 31 (TV camera 3) around the +α axis. [S11] - Rotate the robot hand 31 (TV camera 3) around the α axis.

【0023】このように、マーカ2の画像4のデータか
ら、作業対象面1の方向を検出し、その方向に応じて、
ロボットハンド31の位置を補正するようにした。この
ため、ロボットハンド31を作業対象面1に正対させる
ことができ、作業対象面1がずれた場合でも、ロボット
30に正確な動作を行わせることができる。したがって
、ロボット30による作業を継続して行うことができる
In this way, the direction of the work surface 1 is detected from the data of the image 4 of the marker 2, and depending on the direction,
The position of the robot hand 31 is corrected. Therefore, the robot hand 31 can be directly opposed to the work surface 1, and even if the work surface 1 is shifted, the robot 30 can be made to perform accurate operations. Therefore, the work by the robot 30 can be continued.

【0024】また、マーカ2は、一定距離にある輪郭部
2aと中心部2bとの2面を有し、その2面2a、2a
を撮像するようにした。このため、その画像4において
、輪郭部2a及び中心部2bの相対的なずれが明確に判
別できる。したがって、それぞれの重心座標を求めたと
き、その重心座標間のずれを正確に求めることができる
Furthermore, the marker 2 has two surfaces, an outline portion 2a and a center portion 2b, which are located at a certain distance, and the two surfaces 2a, 2a
I decided to take an image. Therefore, in the image 4, the relative displacement between the contour portion 2a and the center portion 2b can be clearly determined. Therefore, when determining the respective barycenter coordinates, it is possible to accurately determine the deviation between the barycenter coordinates.

【0025】図7は本発明の第2の実施例を示す図であ
る。第1の実施例との相違点は、作業対象面1に、深さ
 (開口角) の異なるマーカ2を複数個 (例えば2
個) 設けるように構成した点である。開口角θの大き
いマーカ2Aは、より広い範囲からの撮像に有効である
。一方、開口角θの小さいマーカ2Bは、ずれの検出を
より高精度で行うことができる。したがって、まず開口
角θの大きいマーカ2Aをもとにおよその方向決めを行
った後、開口角θの小さいマーカ2Bで補正することに
より、高精度で作業対象面1の方向を決定することがで
きる。
FIG. 7 is a diagram showing a second embodiment of the present invention. The difference from the first embodiment is that a plurality of markers 2 (for example, 2
). The marker 2A with a large aperture angle θ is effective for imaging from a wider range. On the other hand, the marker 2B with a small aperture angle θ can detect displacement with higher accuracy. Therefore, by first determining the approximate direction based on the marker 2A with a large aperture angle θ and then correcting it with the marker 2B with a small aperture angle θ, it is possible to determine the direction of the work surface 1 with high precision. can.

【0026】この場合、マーカ2を3個以上設け、その
マーカ2の開口角θを順次小さくすれば、より広い範囲
からより高精度で作業対象面1の方向を検出することが
できる。
In this case, by providing three or more markers 2 and decreasing the aperture angle θ of the markers 2 sequentially, the direction of the work surface 1 can be detected from a wider range with higher precision.

【0027】上記の説明ではマーカの代表座標として、
重心座標を用いたが、中央値(メジアン)を用いても同
様の効果が得られることは明らかである。
In the above explanation, as the representative coordinates of the marker,
Although the center of gravity coordinates were used, it is clear that similar effects can be obtained using the median value.

【0028】[0028]

【発明の効果】以上説明したように本発明では、マーカ
の画像データから、作業対象面の方向を検出するように
構成した。ロボットはその作業対象面の方向に応じて、
ロボットハンドの位置を補正する。このため、ロボット
ハンドを作業対象面に正対させることができ、作業対象
面がずれた場合でも、ロボットに正確な動作を行わせる
ことができる。したがって、ロボットによる作業を継続
して行うことができる。
As described above, the present invention is configured to detect the direction of the work surface from the marker image data. The robot moves according to the direction of the work surface.
Correct the position of the robot hand. Therefore, the robot hand can be directly faced to the surface to be worked on, and even if the surface to be worked on is shifted, the robot can be made to perform accurate operations. Therefore, the robot can continue to work.

【0029】また、マーカは、一定距離離れた輪郭部と
中心部との2面を有し、その2面を撮像するようにした
。このため、その画像において、輪郭部及び中心部の相
対的なずれが明確に判別できる。したがって、それぞれ
の代表座標を求めたとき、そのずれを正確に求めること
ができる。
Furthermore, the marker has two surfaces, an outline portion and a center portion separated by a certain distance, and images of these two surfaces are taken. Therefore, in the image, the relative deviation between the outline and the center can be clearly determined. Therefore, when each representative coordinate is determined, the deviation can be accurately determined.

【0030】さらに、複数個のマーカを順次開口角が小
さくなるように設けたので、より広い範囲からより高精
度で作業対象面の方向を検出することができる。
Furthermore, since a plurality of markers are provided so that the aperture angle becomes smaller in sequence, the direction of the work surface can be detected from a wider range with higher precision.

【図面の簡単な説明】[Brief explanation of the drawing]

【図1】本発明の原理説明図である。FIG. 1 is a diagram explaining the principle of the present invention.

【図2】本発明の平面計測方法を実施するための全体構
成を示す図である。
FIG. 2 is a diagram showing the overall configuration for implementing the plane measurement method of the present invention.

【図3】本発明に使用されるマーカの例を示す図であり
、(A)は円錐状の加工穴形状を有するマーカを、(B
)は円錐状の突起形状を有するマーカを、(C)は四角
錐状の突起形状を有するマーカをそれぞれ示す。
FIG. 3 is a diagram showing an example of a marker used in the present invention, in which (A) shows a marker having a conical hole shape;
) indicates a marker having a conical protrusion shape, and (C) indicates a marker having a quadrangular pyramidal protrusion shape.

【図4】本発明の平面計測方法を説明するための図であ
り、(A)はテレビカメラによる撮像状況を、(B)は
テレビカメラがL1方向から撮像したときの画像を、(
C)はテレビカメラがL2方向から撮像したときの画像
をそれぞれ示す図である。
FIG. 4 is a diagram for explaining the plane measurement method of the present invention, in which (A) shows the imaging situation by the television camera, (B) shows the image taken by the television camera from the L1 direction, and (
C) is a diagram showing images taken by the television camera from the L2 direction.

【図5】図5は本発明の平面計測方法を実行するための
フローチャートであり、ステップS1〜S7をを示す。
FIG. 5 is a flowchart for executing the plane measurement method of the present invention, showing steps S1 to S7.

【図6】図6は本発明の平面計測方法を実行するための
フローチャートであり、ステップS8〜S11を示す。
FIG. 6 is a flowchart for executing the plane measurement method of the present invention, showing steps S8 to S11.

【図7】本発明の第2の実施例を示す図である。FIG. 7 is a diagram showing a second embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1  作業対象面 2,20,21  マーカ 3  テレビカメラ 4  画像 5  画像処理部 10  部品 30  ロボット 31  ロボットハンド 40  ロボット制御装置 1 Work target surface 2, 20, 21 marker 3 TV camera 4 Image 5 Image processing section 10 Parts 30 Robot 31 Robot hand 40 Robot control device

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】  マーカ(2) を撮像してロボットの
作業対象面(1) の方向を検出する平面計測方法にお
いて、作業対象面(1) にマーカ(2) を設け、前
記マーカ(2) を視覚センサ(3) で撮像し、前記
マーカ(2) の画像(4) から、前記マーカ(2)
 の輪郭部(2a)の代表座標及び中心部(2b)の代
表座標を求め、前記輪郭部(2a)の代表座標及び中心
部(2b)の代表座標に基づいて、前記作業対象面 (
1)の方向を検出することを特徴とする平面計測方法。
1. A planar measurement method for detecting the direction of a work target surface (1) of a robot by imaging a marker (2), wherein a marker (2) is provided on the work target surface (1), and the marker (2) is is imaged by a visual sensor (3), and from the image (4) of the marker (2), the marker (2) is
The representative coordinates of the contour part (2a) and the center part (2b) are determined, and based on the representative coordinates of the contour part (2a) and the center part (2b), the work surface (
1) A plane measurement method characterized by detecting the direction.
【請求項2】  前記マーカ(2) は、前記作業対象
面(1) に平行で一定距離離れた2つの平面内にそれ
ぞれ存在する2面(2a,2b) を有し、前記2面(
2a,2b) は、前記2つの平面に垂直な同一直線上
にそれぞれの中心点を持ち、前記2面(2a,2b) 
の内一方の面(2a)は、より大きな輪環状または角状
の上下左右対称の面であり、他方の面(2b)は、より
小さな中実状の面であることを特徴とする請求項1記載
の平面計測方法。
2. The marker (2) has two surfaces (2a, 2b) each existing in two planes parallel to the work surface (1) and separated by a certain distance;
2a, 2b) have their center points on the same straight line perpendicular to the two planes, and the two planes (2a, 2b)
Claim 1, wherein one of the surfaces (2a) is a larger annular or angular symmetrical surface vertically and horizontally, and the other surface (2b) is a smaller solid surface. Plane measurement method described.
【請求項3】  前記作業対象面 (1)内に、前記2
つの平面の距離が異なる複数の前記マーカ(2) を設
けたことを特徴とする請求項2記載の平面計測方法。
3. In the work target surface (1), the 2
The plane measuring method according to claim 2, characterized in that a plurality of the markers (2) are provided with different distances between two planes.
JP2992891A 1991-02-25 1991-02-25 Plane measuring method Withdrawn JPH04269194A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2992891A JPH04269194A (en) 1991-02-25 1991-02-25 Plane measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2992891A JPH04269194A (en) 1991-02-25 1991-02-25 Plane measuring method

Publications (1)

Publication Number Publication Date
JPH04269194A true JPH04269194A (en) 1992-09-25

Family

ID=12289655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2992891A Withdrawn JPH04269194A (en) 1991-02-25 1991-02-25 Plane measuring method

Country Status (1)

Country Link
JP (1) JPH04269194A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036589A (en) * 2007-07-31 2009-02-19 Omron Corp Target for calibration and device, method and program for supporting calibration
JP2009125839A (en) * 2007-11-21 2009-06-11 Nachi Fujikoshi Corp Weld teaching position correction system
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same
JP2014018932A (en) * 2012-07-20 2014-02-03 Kobe Steel Ltd Calibration method for robot with optical sensor
JP2015112688A (en) * 2013-12-12 2015-06-22 株式会社Ihi Robot remote control system and robot remote control method
JP2018144193A (en) * 2017-03-08 2018-09-20 本田技研工業株式会社 Position and attitude adjustment method
CN112692833A (en) * 2020-12-31 2021-04-23 广东美的白色家电技术创新中心有限公司 Calibration block, robot calibration method, calibration device and storage medium

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009036589A (en) * 2007-07-31 2009-02-19 Omron Corp Target for calibration and device, method and program for supporting calibration
JP2009125839A (en) * 2007-11-21 2009-06-11 Nachi Fujikoshi Corp Weld teaching position correction system
JP2009172718A (en) * 2008-01-24 2009-08-06 Canon Inc Working device and calibration method of the same
JP2014018932A (en) * 2012-07-20 2014-02-03 Kobe Steel Ltd Calibration method for robot with optical sensor
JP2015112688A (en) * 2013-12-12 2015-06-22 株式会社Ihi Robot remote control system and robot remote control method
JP2018144193A (en) * 2017-03-08 2018-09-20 本田技研工業株式会社 Position and attitude adjustment method
CN112692833A (en) * 2020-12-31 2021-04-23 广东美的白色家电技术创新中心有限公司 Calibration block, robot calibration method, calibration device and storage medium
CN112692833B (en) * 2020-12-31 2022-04-15 广东美的白色家电技术创新中心有限公司 Calibration block, robot calibration method, calibration device and storage medium

Similar Documents

Publication Publication Date Title
US9457470B2 (en) Robot system and method for calibration
CN107292927B (en) Binocular vision-based symmetric motion platform pose measurement method
US7280687B2 (en) Device for detecting position/orientation of object
EP1215017B1 (en) Robot teaching apparatus
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
US20050273199A1 (en) Robot system
JP2006148745A (en) Camera calibration method and apparatus
CN104552341A (en) Single-point multi-view meter-hanging posture error detecting method of mobile industrial robot
US20220230348A1 (en) Method and apparatus for determining a three-dimensional position and pose of a fiducial marker
JP3138080B2 (en) Automatic calibration device for vision sensor
JP2009248214A (en) Image processing device and robot control system
JPH04269194A (en) Plane measuring method
JPH0626770B2 (en) Workpiece fitting method
JPH1063324A (en) Picture input-type robot system
JP3511551B2 (en) Robot arm state detection method and detection system
Ravn et al. Auto-calibration in automation systems using vision
JPH09329440A (en) Coordinating method for measuring points on plural images
JPH06214622A (en) Work position sensor
JPH03281182A (en) Coordinate correcting method for moving robot
JPH04100573A (en) Correction method of shifting of camera coordinate system
JP2584151Y2 (en) Robot controller
JP3252870B2 (en) Calibration method of image recognition robot camera
JPH01116401A (en) Parallax correction system for visual sensor
JPH05314257A (en) Image processor and robot controller
JPS62102984A (en) Method of determining attitude of wrist section of robot

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 19980514