JPH06214622A - Work position sensor - Google Patents

Work position sensor

Info

Publication number
JPH06214622A
JPH06214622A JP796793A JP796793A JPH06214622A JP H06214622 A JPH06214622 A JP H06214622A JP 796793 A JP796793 A JP 796793A JP 796793 A JP796793 A JP 796793A JP H06214622 A JPH06214622 A JP H06214622A
Authority
JP
Japan
Prior art keywords
work
coordinates
coordinate system
data
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP796793A
Other languages
Japanese (ja)
Inventor
Noriyuki Uchiumi
典之 内海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokico Ltd
Original Assignee
Tokico Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokico Ltd filed Critical Tokico Ltd
Priority to JP796793A priority Critical patent/JPH06214622A/en
Publication of JPH06214622A publication Critical patent/JPH06214622A/en
Pending legal-status Critical Current

Links

Landscapes

  • Control Of Position Or Direction (AREA)
  • Machine Tool Sensing Apparatuses (AREA)
  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To deal with various work shapes and also to process these works at a high speed and low cost by obtaining three or more coordinates which are not set on the same straight line on work as the data on the position and the posture of the work. CONSTITUTION:The TV cameras 3-5 photograph the images near the feature points P1-P3 which are not set on the same straight light on the surface of a work 1 and output these photographed images to the image processor 7-9. The processors 7-9 detect the coordinates of the points P1-P3 based on each image signal. A computing element 10 calculates the data to specify the position and the posture of the work 1 in a world coordinate system 2 based on the distance fata corresponding to the car type of the work 1 stored in a storage 11, the data on the installing conditions of the cameras 3-5, and the coordinates of the point P1-P3 supplied from the processors 7-9. Then the element 10 outputs the calculated data to a robot controller 12. Thus it is possible to deal with various work shapes and also to process these works at a high speed and low cost.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、ロボット等を有する自
動生産ライン用装置に用いて好適なワーク位置検知装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a work position detecting device suitable for use in an automatic production line device having a robot or the like.

【0002】[0002]

【従来の技術】自動生産ラインにおいては、各生産機器
がライン内を流れるワークに対し適切な作業を施す必要
があり、そのためには到来するワークの位置・姿勢を正
確に検出する必要がある。このようなワークの位置を検
出するための方法として、従来、次の2通りの方法があ
った。 <第1の方法>ワークを平行移動・回転移動が可能な6
自由度を有する物体であると仮定しその位置・姿勢を演
算する。ワーク位置検出に際し、ワーク上の同一直線上
に位置しない3点、例えば、穴等を代表点として定め
る。そして、これらの各代表点を各々2台のカメラによ
り異なる方向から見るステレオカメラ方式により撮影
し、撮影により得られた各特徴点の画像平面内での座標
に基づき、作業空間におけるワークの位置および姿勢を
求める。
2. Description of the Related Art In an automatic production line, it is necessary for each production apparatus to perform an appropriate work on a work flowing in the line, and for that purpose, it is necessary to accurately detect the position and orientation of the incoming work. Conventionally, there have been the following two methods for detecting the position of such a work. <First method> Workpieces can be moved in parallel or in rotation 6
It is assumed that the object has a degree of freedom, and its position / orientation is calculated. When the work position is detected, three points that are not on the same straight line on the work, such as holes, are defined as representative points. Then, each of these representative points is photographed by a stereo camera method in which two cameras are seen from different directions, and the position of the work in the work space and Ask for posture.

【0003】<第2の方法>ワークの外形を画する各辺
の中から相互に平行でない第1および第2の辺を選択
し、これらの2辺の位置関係を予めメモリに記憶してお
く。そして、ワークが作業空間内に到来した場合、この
ワークの第1の辺が作業空間内に設定された相互に平行
な第1および第2の検出平面と交わる2交点を例えば光
学的手段により検出する。さらにワークの第2の辺が第
1および第2の検出平面と非平行な第3の検出平面と交
わる交点を検出する。そして、これら3個の交点の座標
に基づき、第1および第2の辺に関する位置情報を求
め、これらの位置情報に基づきワークの位置を検出す
る。なお、本願出願人は、この方法に基づくワーク位置
検知装置を特願平2−9541号にて提案している。
<Second Method> First and second sides that are not parallel to each other are selected from the respective sides that define the outer shape of the work, and the positional relationship between these two sides is stored in advance in a memory. . Then, when the work arrives in the work space, two intersecting points where the first side of the work intersects the mutually parallel first and second detection planes set in the work space are detected by, for example, optical means. To do. Further, the intersection point where the second side of the work intersects the third detection plane that is non-parallel to the first and second detection planes is detected. Then, based on the coordinates of these three intersections, position information regarding the first and second sides is obtained, and the position of the work is detected based on these position information. The applicant of the present application has proposed a work position detecting device based on this method in Japanese Patent Application No. 2-9541.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、上述の
第1の方法には次のような問題点があった。 6自由度を有するワークの位置を求めるために6台
のテレビカメラと6台の画像処理装置が必要であり、方
法を実施するための装置が複雑かつ高価格になってしま
う。 1組の画像から実際の作業空間における座標への変
換を行うためにはキャリブレーションが必要であり、し
かも、これを3組分行わなければならないので、調整に
多くの時間を要する。 ワーク上の代表点のコントラストは必ずしも良くな
いため、画像をグレースケール処理する必要があり、検
知に多くの時間を要した。
However, the above-mentioned first method has the following problems. In order to obtain the position of the work having 6 degrees of freedom, 6 TV cameras and 6 image processing devices are required, which makes the device for carrying out the method complicated and expensive. Calibration is required to perform conversion from one set of images to coordinates in the actual working space, and since this must be performed for three sets, adjustment requires a lot of time. Since the contrast of the representative points on the work is not always good, it was necessary to perform grayscale processing on the image, and it took a lot of time for detection.

【0005】また、上述の第2の方法には次のような問
題点があった。 非平行な2辺を有していないワークには適用するこ
とができない。 2辺の位置関係を求めるために複雑な演算が必要で
あり、実施が困難である。 第1乃至第3の検出平面をワークの第1および第2
の辺と交差させて上記3交点を検出可能な態様で生じさ
せるための手段が必要である。なお、上記出願(特願平
2−9541号)は、この手段をラインマーカ等の光学
的手段により具現した実施例を開示している。
Further, the above-mentioned second method has the following problems. It cannot be applied to a work that does not have two non-parallel sides. A complicated calculation is required to obtain the positional relationship between the two sides, which is difficult to carry out. The first to third detection planes are used as the first and second workpieces.
There is a need for a means for intersecting the sides of and causing the three intersections in a detectable manner. The above application (Japanese Patent Application No. 2-9541) discloses an embodiment in which this means is embodied by an optical means such as a line marker.

【0006】本発明は、このような事情に鑑みてなされ
たものであり、さまざまな形状のワークに対応できると
ともに、低価格でしかも処理速度が速いワーク位置検知
装置を提供することを目的とする。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a work position detecting device which can cope with works of various shapes and which is low in price and has a high processing speed. .

【0007】[0007]

【課題を解決するための手段】請求項1に係るワーク位
置検知装置は、ワーク上の同一直線上にない少なくとも
3個の特徴点の画像を撮影する撮影手段と、前記撮影手
段により撮影された各特徴点の画像平面内での座標を各
々検出する検出手段と、前記各特徴点の画像平面内での
座標に基づいてこれらの特徴点の所定の基準座標系にお
ける座標を演算する演算手段とを具備することを特徴と
する。
According to a first aspect of the present invention, there is provided a work position detecting device, a photographing means for photographing images of at least three characteristic points which are not on the same straight line on the work, and the photographing means. Detecting means for detecting coordinates of each feature point in the image plane, and calculating means for calculating coordinates of these feature points in a predetermined reference coordinate system based on the coordinates of each feature point in the image plane. It is characterized by including.

【0008】また、請求項2に係るワーク位置検知装置
は、上記構成に加えてさらに前記各特徴点の基準座標系
における座標を記憶する記憶手段を有すると共に、新た
なワークの各特徴点の基準座標系における座標を演算し
た場合に、それらの座標と前記記憶手段に記憶された座
標とに基づいて新たなワークの位置ずれを演算する位置
ずれ検出手段を設けたことを特徴とする。
Further, in addition to the above configuration, the work position detecting apparatus according to a second aspect of the present invention further comprises storage means for storing coordinates in the reference coordinate system of each of the feature points, and a reference for each feature point of the new work. When the coordinates in the coordinate system are calculated, the positional deviation detecting means for calculating the positional deviation of the new work based on the coordinates and the coordinates stored in the storage means is provided.

【0009】[0009]

【作用】上記請求項1に記載の発明によれば、ワーク上
の各特徴点の撮影が行われ、それらの画像平面内での座
標に基づき、各特徴点の基準座標系における位置が求め
られる。このようにワーク上の少なくとも3点の座標が
得られることにより、ワークの位置および姿勢が確定
し、ワークに対し適切な作業を行うことが可能となる。
According to the first aspect of the invention, each feature point on the work is photographed, and the position of each feature point in the reference coordinate system is obtained based on the coordinates in the image plane. . By thus obtaining the coordinates of at least three points on the work, the position and posture of the work are determined, and it becomes possible to perform an appropriate work on the work.

【0010】また、請求項2に記載の発明によれば、ワ
ークの特徴点の座標を記憶手段に記憶させることによ
り、以後、新たなワークについて前記ワークに対する位
置ずれを検知することができる。
According to the second aspect of the present invention, by storing the coordinates of the characteristic points of the work in the storage means, it is possible to detect the positional deviation of the new work with respect to the work thereafter.

【0011】[0011]

【実施例】以下、図面を参照して本発明の一実施例につ
いて説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings.

【0012】A:実施例の構成 図1は自動車生産ラインのある工程に設置された本実施
例によるワーク位置検出装置を示す全体図である。この
図において、1はワークたる自動車車体であり、図示せ
ぬコンベア等によりこの工程の作業空間内に搬入され
る。2は作業空間内に固定されたワールド座標系であ
る。このワールド座標系は、x軸、y軸およびz軸から
なる直交座標系であり、本実施例においてはワークの位
置を特定するための基準座標として使用される。
A: Structure of Embodiment FIG. 1 is an overall view showing a work position detecting apparatus according to this embodiment installed in a certain process of an automobile production line. In this figure, reference numeral 1 denotes an automobile body serving as a work, which is carried into the work space of this process by a conveyor (not shown) or the like. Reference numeral 2 is a world coordinate system fixed in the work space. This world coordinate system is an orthogonal coordinate system composed of x-axis, y-axis and z-axis, and is used as a reference coordinate for specifying the position of the work in this embodiment.

【0013】3,4,5はテレビジョンカメラ(以下、
TVカメラと略す)であり、ワーク1の表面の同一直線
上にない3つの特徴点P1,P2,P3付近の各画像を各
々撮影する。このようにして撮影された画像は撮影信号
として後述する画像処理装置7〜9に出力される。TV
カメラ3〜5の視野の大きさは、特徴点の撮影をワーク
1が作業空間内に停止した状態で行うか、それともワー
ク1を連続的に作業空間内を通過させて行うかにより決
定する。すなわち、ワーク1が停止した状態で撮影を行
い、かつ、その停止精度が比較的良い場合には「±数1
0cm」程度とする。また、搬送状態のワーク1を撮影
する場合には、視野の大きさを「1m」程度とする。こ
れはワーク1が搬送状態であれば、「1m」程度連続的
に検出する必要があるからである。
3, 4 and 5 are television cameras (hereinafter,
This is an abbreviated TV camera), and images of each of the three feature points P1, P2, and P3 in the vicinity of the surface of the work 1 that are not on the same straight line are captured. The images photographed in this way are output as photographing signals to the image processing devices 7 to 9 described later. TV
The size of the field of view of the cameras 3 to 5 is determined depending on whether the feature point is photographed in a state where the work 1 is stopped in the work space or when the work 1 is continuously passed through the work space. That is, when the work 1 is photographed in a stopped state and the stopping accuracy is relatively good, “± number 1
0 cm ". Further, when photographing the work 1 in the conveyed state, the size of the field of view is set to about “1 m”. This is because it is necessary to continuously detect about "1 m" when the work 1 is in the transporting state.

【0014】TVカメラ3〜5によって撮影される画像
の一例を図3に示す。同図において、13はTVカメラ
3により撮影された特徴点P1付近の画像であり、(u
1,v1)は特徴点P1の画像平面内での座標である。同
様に14は特徴点P2付近の画像、(u2,v2)は画像
平面内での特徴点P2の座標、15は特徴点P3付近の画
像、(u3,v3)は画像平面内での特徴点P3の座標で
ある。
An example of images taken by the TV cameras 3 to 5 is shown in FIG. In the figure, 13 is an image near the feature point P1 taken by the TV camera 3, and (u
1, v1) are the coordinates of the feature point P1 in the image plane. Similarly, 14 is an image near the feature point P2, (u2, v2) is coordinates of the feature point P2 in the image plane, 15 is an image near the feature point P3, and (u3, v3) is a feature point in the image plane. These are the coordinates of P3.

【0015】6はコントローラであり、図2に示すよう
に画像処理装置7〜9,演算器10,記憶装置11から
構成されている。画像処理装置7〜9はTVカメラ3〜
5から供給される撮影信号に基づいて特徴点P1の座標
(u1,v1),特徴点P2の座標(u2,v2)および特
徴点P3の座標(u3,v3)を検出する。
Reference numeral 6 denotes a controller, which is composed of image processing devices 7 to 9, an arithmetic unit 10 and a storage device 11, as shown in FIG. The image processing devices 7 to 9 are TV cameras 3 to
The coordinates (u1, v1) of the characteristic point P1, the coordinates (u2, v2) of the characteristic point P2, and the coordinates (u3, v3) of the characteristic point P3 are detected based on the photographing signal supplied from 5.

【0016】次に11は記憶装置であり、ワーク1上の
特徴点P1およびP2間の距離を表す距離データL1,j
と、特徴点P2およびP3間の距離を表す距離データL2,
jと、特徴点P3およびP1間の距離を表す距離データL
3,jとをワーク1たる自動車車体の車種No.j毎に記
憶する。また、上述したTVカメラ3〜5の設置条件に
関するデータ、すなわち、以下のデータを記憶する。 TVカメラ3〜5の各設置位置をワールド座標系2の
原点から見た位置ベクトルr1,位置ベクトルr2,位置
ベクトルr3 TVカメラ3〜5の各撮影方向の水平方向角及び上下
角(θz1,θx1),(θz2,θx2),(θz3,θx3) 本実施例の場合、これらのTVカメラ3〜5の撮影方向
はすべて同一ではない。 TVカメラ3〜5の各々の視野角に関する情報
Next, 11 is a storage device, which is distance data L1, j representing the distance between the feature points P1 and P2 on the work 1.
And distance data L2, which represents the distance between the feature points P2 and P3,
Distance data L representing the distance between j and the feature points P3 and P1
No. 3 and No. 1 of the car body, which is the work 1 Store every j. In addition, the above-mentioned data regarding the installation conditions of the TV cameras 3 to 5, that is, the following data are stored. Position vector r1, position vector r2, position vector r3 when the installation positions of the TV cameras 3 to 5 are viewed from the origin of the world coordinate system 2. Horizontal and vertical angles (θz1, θx1) of the shooting directions of the TV cameras 3 to 5 ), (Θz2, θx2), (θz3, θx3) In the case of the present embodiment, the TV cameras 3 to 5 do not have the same shooting direction. Information about the viewing angle of each of the TV cameras 3 to 5

【0017】演算器10は、記憶装置11に記憶された
ワーク1の車種No.jに対応する距離データLj,1、
Lj,2およびLj,3と、上記TVカメラ3〜5の設置条件
に関するデータと、画像処理装置7〜9から供給される
特徴点P1〜P3の座標(ui,vi)(i=1,2,3)
とに基づき、ワーク1のワールド座標系2における位置
および姿勢を特定するためのデータを算出し、ロボット
コントローラ12へ出力する。このロボットコントロー
ラ12は、演算器10から得たデータに基づき、図示し
ないロボットを制御するための信号を出力する。
The arithmetic unit 10 is a vehicle model No. of the work 1 stored in the storage device 11. distance data Lj, 1, corresponding to j,
Lj, 2 and Lj, 3, data relating to the installation conditions of the TV cameras 3 to 5, and the coordinates (ui, vi) of the characteristic points P1 to P3 supplied from the image processing devices 7 to 9 (i = 1, 2). , 3)
Based on and, data for specifying the position and orientation of the work 1 in the world coordinate system 2 is calculated and output to the robot controller 12. The robot controller 12 outputs a signal for controlling a robot (not shown) based on the data obtained from the arithmetic unit 10.

【0018】B:実施例の動作 次に、本実施例の動作を説明する。 <教示>ワーク1に対する作業を進めるに際し、作業の
ための教示を行う必要がある。以下、この教示に係る動
作を説明する。まず、作業空間内にワーク1が搬入さ
れ、その車種No.jが読み取られ、この車種No.j
と、ワークの基準位置の教示を指示するコマンドとがロ
ボットコントローラ12から演算器12へ送られる。こ
の結果、演算器10は図4にPAD図を示すルーチンを
実行する。
B: Operation of Embodiment Next, the operation of this embodiment will be described. <Teaching> When performing work on the work 1, it is necessary to teach the work. The operation according to this teaching will be described below. First, the work 1 is loaded into the work space, and the vehicle type No. j is read, and this vehicle type No. j
And a command for instructing the teaching of the reference position of the work are sent from the robot controller 12 to the computing unit 12. As a result, the arithmetic unit 10 executes the routine shown in the PAD diagram in FIG.

【0019】まず、ステップs1において、演算器10
は、ワーク1の車種No.j及びコマンドを受信する。
次にステップs2に進むと、演算器10は、画像処理装
置7〜9に対し特徴点P1〜P3の座標の検知すべき旨
を指示する特徴点検出指令を送る。そして、画像処理装
置7〜9の状態を監視しつつ(ステップs4)、画像処
理装置7〜9による特徴点の座標の検知が終了するまで
待機する(ステップs3)。なお、一定時間経過しても
画像処理装置7〜9による特徴点Piの座標(ui,v
i)の検知が終了しない場合にはエラー信号がロボット
コントローラ12に送られ、その後の処理は中止され
る。
First, in step s1, the arithmetic unit 10
Is the vehicle model No. of Work 1. j and the command.
Next, in step s2, the arithmetic unit 10 sends a feature point detection command to the image processing devices 7 to 9 instructing that the coordinates of the feature points P1 to P3 should be detected. Then, while monitoring the states of the image processing devices 7 to 9 (step s4), the process waits until the detection of the coordinates of the characteristic points by the image processing devices 7 to 9 is completed (step s3). Note that the coordinates (ui, v
When the detection of i) is not completed, an error signal is sent to the robot controller 12 and the subsequent processing is stopped.

【0020】画像処理装置7〜9による特徴点の座標の
検知が終了するとステップs5に進み、演算器10は画
像処理装置7〜9から特徴点P1〜P3の座標(ui,v
i)(i=1〜3)を受け取る。次にステップs6に進
み、記憶装置11に記憶されているTVカメラ3〜5の
設置条件,視野角及び車種No.jに対応するワーク1
の距離データL1,j,距離データL2,j,距離データL3,
jを読み取る。
When the detection of the coordinates of the characteristic points by the image processing devices 7 to 9 is completed, the processing proceeds to step s5, and the arithmetic unit 10 causes the image processing devices 7 to 9 to coordinate (ui, v) the characteristic points P1 to P3.
i) (i = 1 to 3) is received. Next, in step s6, the installation conditions of the TV cameras 3 to 5 stored in the storage device 11, the viewing angle, and the vehicle model number. Work 1 corresponding to j
Distance data L1, j, distance data L2, j, distance data L3,
read j

【0021】次にステップs7に進み、画像処理装置7
〜9から得た特徴点P1〜P3の座標(ui,vi)(i=
1,2,3)と、記憶装置11から読み出したTVカメ
ラ3〜5の設置条件,視野角とに基づき、各TVカメラ
3〜5から特徴点P1〜P3へと向う方向ベクトル(単位
ベクトル)e1,e2およびe3のワールド座標系2での
成分、すなわち、各方向ベクトルe1,e2およびe3に
ついてのx成分,y成分およびz成分を算出する。以
下、これらの方向ベクトルの算出方法について説明す
る。
Next, in step s7, the image processing device 7
9 to the coordinates (ui, vi) of the characteristic points P1 to P3 (i =
1, 2, 3), and the installation conditions and viewing angles of the TV cameras 3 to 5 read out from the storage device 11, the direction vector (unit vector) from each TV camera 3 to 5 toward the characteristic points P1 to P3. The components of e1, e2 and e3 in the world coordinate system 2, that is, the x component, y component and z component for each direction vector e1, e2 and e3 are calculated. Hereinafter, a method of calculating these direction vectors will be described.

【0022】まず、座標(ui,vi)(i=1,2,
3)、TVカメラ3〜5の視野角に基づき、各TVカメ
ラに固定された直交座標系から見た特徴点P1〜P3の方
向を示す単位ベクトルe1’,単位ベクトルe2’,単位
ベクトルe3’が求められる。ここで、各TVカメラに
固定された直交座標系とは以下のような座標軸により構
成される座標系をいう。 当該カメラの撮影方向(当該カメラから視野の中心を
見る方向)に対応した軸。この軸上のすべての点は画像
平面の中心に結像される。 水平面に含まれ、かつ、上記軸と直交する軸。この
軸はu座標値の座標軸でもある。 上記軸およびと直交する軸。この軸はv座標値の
座標軸でもある。
First, the coordinates (ui, vi) (i = 1, 2,
3), based on the viewing angles of the TV cameras 3 to 5, a unit vector e1 ', a unit vector e2', and a unit vector e3 'indicating the directions of the characteristic points P1 to P3 viewed from the orthogonal coordinate system fixed to each TV camera. Is required. Here, the orthogonal coordinate system fixed to each TV camera means a coordinate system constituted by the following coordinate axes. An axis that corresponds to the shooting direction of the camera (direction in which the center of the field of view is viewed from the camera). All points on this axis are imaged in the center of the image plane. An axis included in the horizontal plane and orthogonal to the above axis. This axis is also the coordinate axis of the u coordinate value. The axis and the axis orthogonal to the above axis. This axis is also the coordinate axis of the v coordinate value.

【0023】次にこのようにして得られた各単位ベクト
ルe1’,e2’,e3’に座標変換を施し、ワールド座
標系2を基準とする方向ベクトルe1,方向ベクトルe
2,方向ベクトルe3を求める。この変換は、次の手順で
行われる。
Next, coordinate conversion is performed on each of the unit vectors e1 ', e2', e3 'thus obtained, and the direction vector e1 and the direction vector e based on the world coordinate system 2 are used.
2. Find the direction vector e3. This conversion is performed in the following procedure.

【0024】まず、ワールド座標系2に示すz軸廻りに
θだけ回転させる回転行列をRot(z,θ),x軸廻
りにψだけ回転させる回転行列をRot(x,ψ)と表
すと、TVカメラ3に固定された直行座標系からワール
ド座標系2へ変換する回転行列RT,1が次式により得ら
れる。 RT,1=Rot(z,θz1)・Rot(x,θx1) ...(1)
First, when the rotation matrix for rotating about the z axis shown in the world coordinate system 2 by θ is represented as Rot (z, θ), and the rotation matrix for rotating about the x axis by ψ is represented as Rot (x, ψ), The rotation matrix RT, 1 for converting from the orthogonal coordinate system fixed to the TV camera 3 to the world coordinate system 2 is obtained by the following equation. RT, 1 = Rot (z, θz1) · Rot (x, θx1). . . (1)

【0025】TVカメラ4,5についても同様な回転行
列RT,2及びRT,3が以下のように得られる。 RT,2=Rot(z,θz2)・Rot(x,θx2) ...(2) RT,3=Rot(z,θz3)・Rot(x,θx3) ...(3)
Similar rotation matrices RT, 2 and RT, 3 are obtained for the TV cameras 4 and 5 as follows. RT, 2 = Rot (z, θz2) · Rot (x, θx2). . . (2) RT, 3 = Rot (z, θz3) · Rot (x, θx3). . . (3)

【0026】これらの式(1)〜(3)に基づいて、回
転行列RT,1,回転行列RT,2,回転行列RT,3を算出す
る。そして、このようにして算出された回転行列RT,1
〜RT,3を、下記式(4)〜(6)に従って単位ベクト
ルe1’,e2’,e3’に作用させ、方向ベクトルe1,
e2,e3を各々求める。 e1=RT,1・e1’ ...(4) e2=RT,2・e2’ ...(5) e3=RT,3・e3’ ...(6)
A rotation matrix RT, 1, a rotation matrix RT, 2, and a rotation matrix RT, 3 are calculated based on these equations (1) to (3). Then, the rotation matrix RT, 1 calculated in this way
˜RT, 3 is applied to the unit vectors e1 ′, e2 ′, e3 ′ according to the following equations (4) to (6), and the direction vector e1,
Find e2 and e3 respectively. e1 = RT, 1 · e1 '. . . (4) e2 = RT, 2.e2 '. . . (5) e3 = RT, 3.e3 '. . . (6)

【0027】次にステップs8に進み、TVカメラ3か
ら特徴点P1までの距離d1,TVカメラ4から特徴点P
2までの距離d2,TVカメラ5から特徴点P3までの距
離d3を以下説明する手順により算出する。まず、ワー
ルド座標系2の原点から各特徴点P1〜P3までの位置ベ
クトルOP1,位置ベクトルOP2,位置ベクトルOP3
は、 OP1=r1+d1e1 ...(7) OP2=r2+d2e2 ...(8) OP3=r3+d3e3 ...(9) と表される。
Next, in step s8, the distance d1 from the TV camera 3 to the characteristic point P1 and the characteristic point P from the TV camera 4 are calculated.
The distance d2 to 2 and the distance d3 from the TV camera 5 to the feature point P3 are calculated by the procedure described below. First, a position vector OP1, a position vector OP2, and a position vector OP3 from the origin of the world coordinate system 2 to each of the feature points P1 to P3.
Is OP1 = r1 + d1e1. . . (7) OP2 = r2 + d2e2. . . (8) OP3 = r3 + d3e3. . . It is expressed as (9).

【0028】一方、特徴点間の距離はステップs6によ
り、すでに距離データL3,j,距離データL2,j,距離デ
ータL1,jという情報が与えられているから、 |r2−r1+d2e2−d1e1|=L3,j ...(10) |r3−r1+d3e3−d1e1|=L2,j ...(11) |r3−r2+d3e3−d2e2|=L1,j ...(12) なる方程式が成り立つ。ステップs8においては、これ
らの方程式を解くことにより距離d1〜d3を算出する。
On the other hand, the distance between the feature points has already been given the information of distance data L3, j, distance data L2, j, distance data L1, j in step s6, so that | r2-r1 + d2e2-d1e1 | = L3, j. . . (10) | r3-r1 + d3e3-d1e1 | = L2, j. . . (11) | r3-r2 + d3e3-d2e2 | = L1, j. . . (12) The following equation holds. In step s8, the distances d1 to d3 are calculated by solving these equations.

【0029】次にステップs9に進み、特徴点P1のワ
ールド座標系2での位置ベクトルrw,特徴点P1から特
徴点P2へ向う変位ベクトルaおよび特徴点P1から特徴
点P3へ向う変位ベクトルbを下記式(13)〜(1
5)により算出する。
Next, in step s9, the position vector rw of the characteristic point P1 in the world coordinate system 2, the displacement vector a from the characteristic point P1 to the characteristic point P2, and the displacement vector b from the characteristic point P1 to the characteristic point P3 are set. Formulas (13) to (1
Calculated according to 5).

【0030】次にステップs10に進み、ロボットコン
トローラ12から送られてきたコマンドが教示コマンド
か否かを判断し、この場合の結果は「Yes」となって
ステップs11に進む。次にステップs11に進むと、
ステップs9において得られた位置ベクトルrw,変位
ベクトルa,bを車種No.jに対応した基準位置デー
タrwj,aj,bjとして記憶装置11に記憶させる。こ
のようにしてワーク1の基準位置の教示が行われる一
方、この基準位置にあるワーク1へ施すべき作業の教示
がロボットに対して行われる。次にステップs12に進
み、検知終了信号をロボットコントローラ12へ出力
し、このルーチンを終了する。
Next, in step s10, it is determined whether or not the command sent from the robot controller 12 is a teaching command. In this case, the result is "Yes" and the process proceeds to step s11. Next, when proceeding to step s11,
The position vector rw and the displacement vectors a and b obtained in step s9 are used as the vehicle model No. The reference position data rwj, aj, bj corresponding to j is stored in the storage device 11. In this way, the reference position of the work 1 is taught, while the work to be performed on the work 1 at the reference position is taught to the robot. Next, in step s12, a detection end signal is output to the robot controller 12, and this routine ends.

【0031】<実作業>教示終了後の実作業において
は、上記のようにして得られた基準位置データに基づ
き、作業空間内に搬入される車種No.jのワーク1の
基準位置からの位置ずれが検知され、この位置ずれに基
づきロボットの動作の修正が行われる。この場合の処理
について、以下説明する。
<Actual Work> In the actual work after the teaching is finished, the vehicle type No. to be carried into the work space is determined based on the reference position data obtained as described above. A displacement of j from the reference position of the work 1 is detected, and the operation of the robot is corrected based on this displacement. The processing in this case will be described below.

【0032】ワーク1が作業空間内に搬入されると、ロ
ボットコントローラ12は、車体No.jと共にずれ量
測定コマンドを演算器10に送る。この結果、上記教示
の場合と同様、まず、図4におけるステップs1〜ステ
ップs9を実行し、ワーク1についての位置ベクトルr
w,変位ベクトルa,bを求める。次にステップs10
に進むと、その判断結果が「No」と判断されるため、
ステップs13に進む。
When the work 1 is carried into the work space, the robot controller 12 causes the vehicle body No. A deviation amount measurement command is sent to the calculator 10 together with j. As a result, as in the case of the above teaching, first, step s1 to step s9 in FIG.
Find w and displacement vectors a and b. Next, step s10
If you proceed to, the judgment result will be judged as "No".
It proceeds to step s13.

【0033】ステップs13においては、記憶装置11
から基準位置データrwj,aj,bjを読み出す。次にス
テップs14に進み、平行ずれ量x,回転行列Rを算出
する。その処理について、以下説明する。まず、次式
(16)に、ステップs9において算出した位置ベクト
ルrwおよびステップs13において読み出した基準デ
ータ内の位置ベクトルrwjを代入し、平行ずれ量(ベク
トル)xを求める。 x=rw−rwj ...(16) 次にステップs13において読み出した基準データ内の
変位ベクトルaj,bjのベクトル積 dj=aj×bj ...(17) を求める。さらに以下の単位ベクトルuj,wj,vjを
求める。 uj=aj/|aj| ...(18) wj=dj/|dj| ...(19) vj=wj×uj ...(20)
In step s13, the storage device 11
The reference position data rwj, aj, bj are read from. Next, in step s14, the parallel displacement amount x and the rotation matrix R are calculated. The processing will be described below. First, the parallel displacement amount (vector) x is obtained by substituting the position vector rw calculated in step s9 and the position vector rwj in the reference data read in step s13 into the following equation (16). x = rw-rwj. . . (16) Next, the vector product of the displacement vectors aj and bj in the reference data read in step s13 dj = aj * bj. . . (17) is obtained. Further, the following unit vectors uj, wj, vj are obtained. uj = aj / | aj |. . . (18) wj = dj / | dj |. . . (19) vj = wj × uj. . . (20)

【0034】このようにして、特徴点P1を原点にして
変位ベクトルaの方向をx軸とするワーク1に固定され
た座標系のx,y,z軸の基底ベクトルuj,vj,wj
が得られる。これらの基底ベクトルを使用し、ワーク1
に固定された座標系に対応した座標値をワールド座標系
2に対応した座標値に座標変換するための回転行列、 Rj=(uj,vj,wj) ...(21) が得られる。
In this way, the basis vectors uj, vj, wj of the x, y, z axes of the coordinate system fixed to the work 1 with the characteristic point P1 as the origin and the direction of the displacement vector a as the x axis.
Is obtained. Work 1 using these basis vectors
Rj = (uj, vj, wj). A rotation matrix for coordinate conversion of the coordinate values corresponding to the coordinate system fixed to the above into coordinate values corresponding to the world coordinate system 2. . . (21) is obtained.

【0035】同様にして、位置データrw,a,bから
も回転行列R0を算出する。これにより、ずれ量を表す
回転行列Rを、 R=R0・Rj-1 ...(22) から算出する。以上のようにして、平行ずれ量x及び回
転行列Rが算出される。
Similarly, the rotation matrix R0 is calculated from the position data rw, a, b. As a result, the rotation matrix R representing the amount of deviation is R = R0.Rj-1. . . It is calculated from (22). As described above, the parallel shift amount x and the rotation matrix R are calculated.

【0036】次にステップs15に進むと、ステップs
14で算出した平行ずれ量x及び回転行列Rをロボット
コントローラ12へ出力する。ロボットコントローラ1
2は、これらの情報に基づいてロボットの動作の修正を
行う。
Next, when proceeding to step s15, step s
The parallel displacement amount x and the rotation matrix R calculated in 14 are output to the robot controller 12. Robot controller 1
2 corrects the operation of the robot based on these pieces of information.

【0037】C:他の変形例 他の変形例を図5及び図6に示す。これらの図に示す他
の変形例は上述した実施例におけるTVカメラ3,4を
1台のTVカメラ3’に置き換えたものである。これは
2つの特徴点の位置が近い場合や上述のの実施例ほどの
精度が必要ない場合に使用する。画像処理装置7’はT
Vカメラ3’がとらえる2つの特徴点の座標(ui,v
i)(i=1,2)を求め記憶装置11へを送る。その
後の処理手順は上述の実施例と同一である。この場合、
上述の実施例と同一の処理速度が必要であれば、画像処
理装置7’の処理能力を画像処理装置7の2倍程度にす
れば良い。
C: Other Modifications Another modification is shown in FIGS. 5 and 6. In another modification shown in these drawings, the TV cameras 3 and 4 in the above-described embodiment are replaced with one TV camera 3 '. This is used when the positions of the two feature points are close to each other or when the accuracy of the above embodiment is not required. The image processing device 7'is T
The coordinates (ui, v) of the two feature points captured by the V camera 3 '
i) (i = 1, 2) is obtained and sent to the storage device 11. The subsequent processing procedure is the same as that of the above-described embodiment. in this case,
If the same processing speed as that of the above-described embodiment is required, the processing capacity of the image processing apparatus 7'may be set to about twice that of the image processing apparatus 7.

【0038】さらに、TVカメラを1台にしてすべての
特徴点をとらえても良い。特徴点として、上述の実施例
においては部材のエッジを使用したが穴、又はボルト等
の突起物を使用しても良い。
Further, all the characteristic points may be captured with one TV camera. As the characteristic point, the edge of the member is used in the above embodiment, but a hole or a protrusion such as a bolt may be used.

【0039】[0039]

【発明の効果】以上説明したように、この発明によれ
ば、ワーク上の同一直線上にない少なくとも3個の特徴
点の座標をワークの位置および姿勢を表すデータとして
求めるようにしたので、さまざまな形状のワークに対応
できるとともに、低価格でしかも高速処理の可能なワー
ク位置検知装置を実現することができるという効果があ
る。
As described above, according to the present invention, the coordinates of at least three characteristic points that are not on the same straight line on the work are obtained as data representing the position and orientation of the work. There is an effect that it is possible to realize a work position detecting device that can handle a work of any shape and that is low in price and capable of high-speed processing.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明における第1の実施例の全体図である。FIG. 1 is an overall view of a first embodiment of the present invention.

【図2】本発明における第1の実施例の構成を示すブロ
ック図である。
FIG. 2 is a block diagram showing a configuration of a first exemplary embodiment of the present invention.

【図3】本発明において撮影される特徴点の画像の一例
を示す図である。
FIG. 3 is a diagram showing an example of an image of feature points captured in the present invention.

【図4】本発明における第1の実施例の演算器10の処
理手順を示すPAD図である。
FIG. 4 is a PAD diagram showing a processing procedure of the arithmetic unit 10 according to the first embodiment of the present invention.

【図5】本発明における第2の実施例の全体図である。FIG. 5 is an overall view of a second embodiment of the present invention.

【図6】本発明における第2の実施例の構成を示すブロ
ック図である。
FIG. 6 is a block diagram showing a configuration of a second exemplary embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 ワーク 2 ワールド座標系(基準座標) 3,4,5 TVカメラ(撮影手段) 6 コントローラ 7,8,9 画像処理装置(検出手段) 10 演算器(演算手段) 11 記憶装置(記憶手段) 12 ロボットコントローラ 13,14,15 画像。 1 Work 2 World Coordinate System (Reference Coordinates) 3, 4, 5 TV Camera (Photographing Means) 6 Controller 7, 8, 9 Image Processing Device (Detecting Means) 10 Calculator (Calculating Means) 11 Storage Device (Storage Means) 12 Robot controller 13, 14, 15 images.

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 ワーク上の同一直線上にない少なくとも
3個の特徴点の画像を撮影する撮影手段と、 前記撮影手段により撮影された各特徴点の画像平面内で
の座標を各々検出する検出手段と、 前記各特徴点の画像平面内での座標に基づいてこれらの
特徴点の所定の基準座標系における座標を演算する演算
手段と、 を具備することを特徴とするワーク位置検知装置。
1. A photographing means for photographing an image of at least three feature points that are not on the same straight line on a work, and a detection for detecting coordinates of each feature point photographed by the photographing means in an image plane. A work position detecting device comprising: a means and a calculation means for calculating coordinates of these feature points in a predetermined reference coordinate system based on coordinates of the feature points in an image plane.
【請求項2】 前記各特徴点の基準座標系における座標
を記憶する記憶手段を有すると共に、 新たなワークの各特徴点の基準座標系における座標を演
算した場合に、それらの座標と前記記憶手段に記憶され
た座標とに基づいて新たなワークの位置ずれを演算する
位置ずれ検出手段を設けたことを特徴とする請求項1記
載のワーク位置検知装置。
2. A storage means for storing the coordinates of each of the feature points in the reference coordinate system, and when the coordinates of each of the feature points of the new workpiece in the reference coordinate system are calculated, those coordinates and the storage means. 2. The work position detecting device according to claim 1, further comprising a position deviation detecting means for calculating a position deviation of a new work on the basis of the coordinates stored in.
JP796793A 1993-01-20 1993-01-20 Work position sensor Pending JPH06214622A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP796793A JPH06214622A (en) 1993-01-20 1993-01-20 Work position sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP796793A JPH06214622A (en) 1993-01-20 1993-01-20 Work position sensor

Publications (1)

Publication Number Publication Date
JPH06214622A true JPH06214622A (en) 1994-08-05

Family

ID=11680240

Family Applications (1)

Application Number Title Priority Date Filing Date
JP796793A Pending JPH06214622A (en) 1993-01-20 1993-01-20 Work position sensor

Country Status (1)

Country Link
JP (1) JPH06214622A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980054432A (en) * 1996-12-27 1998-09-25 이종수 Apparatus and method for defining industrial robot coordinate system for world coordinate system
JP2005074617A (en) * 2003-09-04 2005-03-24 Yaskawa Electric Corp Production system
JP2006123157A (en) * 2004-09-28 2006-05-18 Nidec Sankyo Corp Robot teaching program for teaching robot, cassette used therefor, position measuring apparatus and robot operation method using these
JP2008279551A (en) * 2007-05-10 2008-11-20 Honda Motor Co Ltd Workpiece positioning device and workpiece positioning method
JP2012187651A (en) * 2011-03-09 2012-10-04 Omron Corp Image processing apparatus, image processing system, and guidance apparatus therefor
JP2016032854A (en) * 2014-07-31 2016-03-10 川崎重工業株式会社 Work device

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980054432A (en) * 1996-12-27 1998-09-25 이종수 Apparatus and method for defining industrial robot coordinate system for world coordinate system
JP2005074617A (en) * 2003-09-04 2005-03-24 Yaskawa Electric Corp Production system
JP2006123157A (en) * 2004-09-28 2006-05-18 Nidec Sankyo Corp Robot teaching program for teaching robot, cassette used therefor, position measuring apparatus and robot operation method using these
JP2008279551A (en) * 2007-05-10 2008-11-20 Honda Motor Co Ltd Workpiece positioning device and workpiece positioning method
JP2012187651A (en) * 2011-03-09 2012-10-04 Omron Corp Image processing apparatus, image processing system, and guidance apparatus therefor
JP2016032854A (en) * 2014-07-31 2016-03-10 川崎重工業株式会社 Work device

Similar Documents

Publication Publication Date Title
EP1555508B1 (en) Measuring system
EP1607194B1 (en) Robot system comprising a plurality of robots provided with means for calibrating their relative position
JP3242108B2 (en) Target mark recognition and tracking system and method
JP5365379B2 (en) Robot system and robot system calibration method
JP5815761B2 (en) Visual sensor data creation system and detection simulation system
JP4794011B2 (en) Image processing apparatus and robot control system
JP2008296330A (en) Robot simulation device
JPH0435885A (en) Calibration method for visual sensor
JP2004090183A (en) Article position and orientation detecting device and article taking-out device
CN113500593B (en) Method for grabbing designated part of shaft workpiece for feeding
JPH055041B2 (en)
JP2730457B2 (en) Three-dimensional position and posture recognition method based on vision and three-dimensional position and posture recognition device based on vision
JPH0780790A (en) Three-dimensional object grasping system
JPH06214622A (en) Work position sensor
JP2002113678A (en) Tracking method and tracking system
JPH03161223A (en) Fitting of work
JPH04269194A (en) Plane measuring method
JPH1011146A (en) Device for correcting stop posture of mobile object
JPH04370704A (en) Method for detecting object proper information about position, angle, etc.
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
JPH06270083A (en) Work position detector
JP2661118B2 (en) Conversion method of object coordinates and visual coordinates using image processing device
CN116100562B (en) Visual guiding method and system for multi-robot cooperative feeding and discharging
JPH01116401A (en) Parallax correction system for visual sensor
JP3384617B2 (en) Object measuring apparatus and method