JPH03161223A - Fitting of work - Google Patents
Fitting of workInfo
- Publication number
- JPH03161223A JPH03161223A JP30036789A JP30036789A JPH03161223A JP H03161223 A JPH03161223 A JP H03161223A JP 30036789 A JP30036789 A JP 30036789A JP 30036789 A JP30036789 A JP 30036789A JP H03161223 A JPH03161223 A JP H03161223A
- Authority
- JP
- Japan
- Prior art keywords
- workpiece
- pair
- dimensional sensor
- robot
- gripping position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 3
- 238000000034 method Methods 0.000 claims description 24
- 238000003384 imaging method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000005520 cutting process Methods 0.000 description 4
- 230000032258 transport Effects 0.000 description 4
- 230000005484 gravity Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Landscapes
- Automatic Assembly (AREA)
- Manipulator (AREA)
Abstract
Description
【発明の詳細な説明】
産業上の利用分野
本発明は、ワークに形戊されている一対の孔を、固定位
置に設けられているピンに、ロボットを用いてはめ合わ
せて、ワークを高精度に位置決めするための方法に関す
る.
従来の技術
現在、各種の生産ラインにおいて、ロボットによる組立
作業の自動化が進められている.ワークを高精度に、固
定位置に位置決めして据え付けるための方法の1つとし
て、ワークに一対の孔を形成し、この一対の孔を、固定
位置に設けられた組立ステージ上に立設された一対のピ
ンにそれぞれはめ合わせる方法が知られている。複数種
類の形状が異なるワークがコンベアなどの搬送手段によ
って搬送され、あるいは1種類のワークであっても、そ
の位置、姿勢が任意で搬送されてくる場合、ワークの全
体像を2次元センサ、たとえばテレビカメラで撮像し、
その撮像結果に基づいて、ロボットを用いてワークの把
持位置を把持する必要がある.
発明が解決すべき課題
このような先行技術では、ワークの全体像を捕らえるた
めには、或る程度広い視野を有するセンサが必要である
.このようにセンサの視野を広く設定することによって
、画像の分解能が粗くならざるを得す、したがってワー
クを正確に把持してそのワークに形或されている一対の
孔を組立ステージの一対のピンにはめ合わせて、はめ合
い作業の自動化を行うことは、実際には、不可能であっ
た.したがってこのようなはめ合い作業は、作業者によ
って行われているのが現状である.本発明の目的は、一
対の孔を有するワークを、固定位置に設けられている一
対のピンに自動的にはめ合わせてワークを高精度に位置
決めすることができるようにしたワークのはめ合い方法
を提供することである.
課題を解決するための手段
本発明は、搬送手段によって搬送されてきた一対の孔を
有するワークを、2次元センサによって撮懺して、その
2次元センサの撮像結果に基づいて、ロボットによって
把持すべきワークの把持位置を検出し、
その把持位置をロボットで把持して、ワークを、3次元
検出が可能な3次元センサの視野にもたらし、
ワークをロボットで把持した状態で、前記一対の孔の位
置を3次元センサによって検出し、3次元センサによる
前記一対の孔の位置の検出結果に基づいて、現在の把持
位置と予め定める基準把持位置とのずれ量を求め、
基準把持位置に対する予め定める固定位置における一対
のピンへのワーク移動の教示データを、前記ずれ量によ
って補正し、前記一対の孔を前記一対のピンにはめ合う
ようにロボットによってワークを移動することを特徴と
するワークのはめ合い方法である.
また本発明は、搬送手段によって一対の孔を有するワー
クを、予め定める供給位置に搬送し、この搬送されてき
たワークを、ロボットで把持して、ワークを3次元検出
が可能な3次元センサの視野にもたらし、
ワークをロボットで把持した状態で、前記一対の孔の位
置を3次元センサによって検出し、3次元センサによる
前記一対の孔の位置の検出結果に基づいて、現在の把持
位置と予め定める基準把持位置とのずれ量を求め、
基準把持位置に対応する予め定める固定位置における一
対のピンへのワーク移動の教示データを、前記ずれ量に
よって補正し、前記一対の孔を前記一対のピンにはめ合
うようにロボットによってワークを移動することを特徴
とするワークのはめ合い方法である.
作 用
本発明に従えば、2次元センサを用いて、搬送手段によ
って搬送されてきた一対の孔を有するワークを撮像して
、ロボットによって把持すべきワークの把持位置を検出
する.搬送手段によって、複数種類のワークが搬送され
てくるときには、2次元センサの撮像結果に基づいて、
そのワークの種類を識別し、各種類のワーク毎の把持位
置を検出することもまた可能である.
こうして検出された把持位置で、ワークを把持し、ロボ
ットによってそのワークを3次元検出が可能な3次元セ
ンサの視野にもたらして、3次元センサによって一対の
孔の位置を検出する.前述の2次元センサでは、ワーク
の把持位置を検出するために、ワークの全体像を捕らえ
るだけの広い視野が必要であるのに対して、3次元セン
サでは一対の孔の位置を検出すればよく、したがって3
次元センサによって各孔の3次元位置を高精度に検出す
ることができる.
こうして3次元センサによる一対の孔の位置の検出結果
に基づき、現在の把持位置と予め定める基準把持位置と
のずれ量を求める.ロボットでは、ワークの基準把持位
置を把持した状態から、そのワークの一対の孔を予め定
める固定位置にある組立ステージなどの一対のピンへワ
ークを移動して一対の孔にピンをそれぞれはめ合うよう
に移動する教示データが予めストアされている.そこで
、その教示データを、前記ずれ量によって補正し、この
ようにしてロボットによってワークを移動して一対の′
孔を一対のピンにはめ合わせ、ワークを高精度に位置決
めすることを,自動的に行うことができる。[Detailed Description of the Invention] Industrial Field of Application The present invention involves fitting a pair of holes formed in a workpiece onto a pin provided at a fixed position using a robot to form a workpiece with high precision. Concerning a method for positioning. Conventional technologyCurrently, automation of assembly work using robots is progressing on various production lines. One of the methods for positioning and installing a workpiece in a fixed position with high precision is to form a pair of holes in the workpiece, and to install this pair of holes upright on an assembly stage provided at a fixed position. A method is known in which each pin is fitted onto a pair of pins. When multiple types of workpieces with different shapes are transported by a conveyor or other transport means, or when even one type of workpiece is transported in arbitrary positions and orientations, the entire image of the workpiece is captured using a two-dimensional sensor, for example. Take an image with a TV camera,
Based on the imaging results, it is necessary to use a robot to grasp the workpiece's gripping position. Problems to be Solved by the Invention In such prior art, a sensor with a somewhat wide field of view is required in order to capture the entire image of the workpiece. By setting the field of view of the sensor to be wide in this way, the resolution of the image must be coarsened. Therefore, the workpiece can be accurately gripped and a pair of holes formed in the workpiece can be connected to a pair of pins on the assembly stage. In reality, it was impossible to automate the fitting process. Therefore, such fitting work is currently performed by workers. An object of the present invention is to provide a method for fitting a workpiece in which a workpiece having a pair of holes can be automatically fitted into a pair of pins provided at a fixed position to position the workpiece with high precision. It is to provide. Means for Solving the Problems The present invention uses a two-dimensional sensor to photograph a workpiece having a pair of holes, which is transported by a transporting means, and grips it by a robot based on the imaging result of the two-dimensional sensor. Detect the gripping position of the workpiece to be held, grip the gripping position with the robot, bring the workpiece into the field of view of a 3D sensor capable of 3D detection, and with the workpiece gripped by the robot, open the holes in the pair of holes. The position is detected by a three-dimensional sensor, and based on the detection result of the position of the pair of holes by the three-dimensional sensor, the amount of deviation between the current gripping position and a predetermined reference gripping position is determined, and the predetermined fixation with respect to the reference gripping position is determined. Fitting of a workpiece, characterized in that teaching data for moving the workpiece to a pair of pins at a position is corrected by the amount of deviation, and the workpiece is moved by a robot so that the pair of holes fit into the pair of pins. It is a method. In addition, the present invention transports a workpiece having a pair of holes by a transporting means to a predetermined supply position, grips the transported workpiece with a robot, and uses a three-dimensional sensor capable of three-dimensional detection of the workpiece. With the workpiece brought into the visual field and gripped by the robot, the positions of the pair of holes are detected by a three-dimensional sensor, and based on the detection results of the positions of the pair of holes by the three-dimensional sensor, the current gripping position and the previously determined position are determined. Determine the amount of deviation from a predetermined reference gripping position, correct teaching data for moving the workpiece to the pair of pins at a predetermined fixed position corresponding to the reference gripping position by the amount of deviation, and align the pair of holes with the pair of pins. This is a workpiece fitting method characterized by moving the workpieces by a robot so that they fit together. Function According to the present invention, a two-dimensional sensor is used to image a workpiece having a pair of holes transported by a transporting means, and the gripping position of the workpiece to be gripped by a robot is detected. When multiple types of workpieces are transported by the transport means, based on the imaging results of the two-dimensional sensor,
It is also possible to identify the type of workpiece and detect the gripping position for each type of workpiece. The workpiece is gripped at the gripping position detected in this way, and the robot brings the workpiece into the field of view of a three-dimensional sensor capable of three-dimensional detection, and the position of the pair of holes is detected by the three-dimensional sensor. The two-dimensional sensor described above requires a wide field of view to capture the entire image of the workpiece in order to detect the gripping position of the workpiece, whereas the three-dimensional sensor only needs to detect the position of a pair of holes. , therefore 3
The three-dimensional position of each hole can be detected with high precision using a dimensional sensor. In this way, based on the detection results of the positions of the pair of holes by the three-dimensional sensor, the amount of deviation between the current gripping position and the predetermined reference gripping position is determined. The robot grips the workpiece at a reference gripping position, moves the workpiece to a pair of pins such as an assembly stage, which has a pair of holes in the workpiece at a predetermined fixed position, and fits the pins into the pair of holes. The teaching data to be moved to is stored in advance. Therefore, the teaching data is corrected by the amount of deviation, and in this way the workpiece is moved by the robot and the pair of
It is possible to automatically fit a hole into a pair of pins and position the workpiece with high precision.
また本発明に従えば、ワークの搬送手段による供給位置
が、ワークの種類毎に予め定められているときには、ワ
ークの把持位置をロボットに予め教示しておくことによ
って、前述の2次元センサを省略することができ、3次
元センサによる孔位置の検出だけで、はめ合い作業が可
能となる。このようなときでも、3次元センサは不可欠
である。Further, according to the present invention, when the supply position of the workpiece by the transport means is predetermined for each type of workpiece, the aforementioned two-dimensional sensor is omitted by teaching the robot the gripping position of the workpiece in advance. The fitting operation can be performed simply by detecting the hole position using a three-dimensional sensor. Even in times like these, three-dimensional sensors are essential.
その理由は、ワークの供給位置が予め定められていると
きでも、ワーク供給位置のばらつきが存在することがあ
り、またロボットがワークを把持する瞬間のぶれなどに
よって、ワークの把持位置にずれが生じることがあり、
これによってロボットでワークの孔をピンにはめ合うこ
とができなくなってしまうおそれがあるからである。The reason for this is that even when the workpiece supply position is determined in advance, there may be variations in the workpiece supply position, and the gripping position of the workpiece may shift due to shaking at the moment the robot grips the workpiece. Sometimes,
This is because there is a possibility that the robot will not be able to fit the hole in the workpiece to the pin.
実施例
第1図は、本発明の一実施例の斜視図である.コンベア
100によって水平な搬送方向101にワーク102が
任意の位置および姿勢で搬送される.
ワー2102は、第2図に示されるように、一対の孔1
03を有しており、このワーク102の予め定める把持
位置104を3次元移動が可能な作業用ロボット105
によって把持し、固定位置に設けられた組立ステージ1
06の一対のピン107にはめ合わせ、このようにして
ワーク102を組立ステージ106に高精度に自動的に
位置決めすることができる.
固定位置には、コンベアl00上の予め定める視野10
8を2次元で撮像するためのテレビカメラなどによって
実現される2次元センサ109が配置される.また固定
位置には、3次元センサ110が配置され、この3次元
センサ110の視野は参照符111で示されている。マ
イクロコンピュータなどによって実現される処理回路1
12は、2次元センサ109および3次元センサ110
からの出力に応答してロボット105を駆動制御する。Embodiment FIG. 1 is a perspective view of an embodiment of the present invention. A workpiece 102 is conveyed by a conveyor 100 in a horizontal conveyance direction 101 in an arbitrary position and orientation. The wire 2102 has a pair of holes 1 as shown in FIG.
03, and is capable of three-dimensional movement of a predetermined gripping position 104 of this workpiece 102.
Assembly stage 1 held in a fixed position by
In this way, the workpiece 102 can be automatically positioned on the assembly stage 106 with high precision. At the fixed position, there is a predetermined field of view 10 on the conveyor l00.
A two-dimensional sensor 109 realized by a television camera or the like is arranged to take two-dimensional images of 8. Further, a three-dimensional sensor 110 is arranged at the fixed position, and the field of view of this three-dimensional sensor 110 is indicated by reference numeral 111. Processing circuit 1 realized by a microcomputer etc.
12 is a two-dimensional sensor 109 and a three-dimensional sensor 110
The robot 105 is driven and controlled in response to the output from the robot 105.
処理回路112の動作は、第3図に示されている.ステ
ップnlからステップn2に移り、2次元センサ109
によってコンベア100上のワーク102が視野108
で撮像される.ワーク102の位置および姿勢によらず
、一定の把持位W104を検出するために、ワー710
2では、その重心113回りに、ワーク102の長平方
向114から時計方向に予め定める角度θだけ回転し、
かつ重心113から予め定めるとおりLだけ離れた位置
を把持位置104として、ステップn3において検出す
る.
ロボット105の作業端には真空バッド115が備えら
れ、多種類のワークの把持を可能としている.この真空
バツド115によって、ワーク102の孔103および
ナットが設けられている部分を避けて、そのワーク10
2の平らな部分を把持位置104として定め、この把持
位置104を真空バツド115によって前述のように把
持する。The operation of processing circuit 112 is shown in FIG. Moving from step nl to step n2, the two-dimensional sensor 109
The workpiece 102 on the conveyor 100 is seen in the field of view 108.
The image is taken with In order to detect a constant gripping position W104 regardless of the position and orientation of the workpiece 102, the workpiece 710
2, the workpiece 102 is rotated by a predetermined angle θ clockwise from the longitudinal direction 114 of the workpiece 102 around its center of gravity 113,
A position separated by L from the center of gravity 113 as determined in advance is detected as the gripping position 104 in step n3. A vacuum pad 115 is provided at the working end of the robot 105, making it possible to grip many types of workpieces. This vacuum butt 115 allows the workpiece 102 to be moved away from the hole 103 of the workpiece 102 and the part where the nut is provided.
2 is defined as the gripping position 104, which is gripped by the vacuum pad 115 as described above.
このようにして、ロボット105によってワーク102
を把持する際には、ワーク102の重心113の位置と
そのワーク102の長手方向114である姿勢とを検出
して把持位置104を求め、その情報に基づいてロボッ
ト105の真空バツド115によってワーク102を把
持する.次にステップn4では、ロボット105によっ
て把持したワーク102を3次元センサ110の視野1
11へ移動してもたらす。この3次元センサ110によ
ってワーク102に形成されている一対の孔103を高
精度で捕らえ、それらの孔103の中心位置を、ステッ
プn6で演算して検出する.前述の2次元センサ109
は視野108において、ワーク102の全体像を撮像す
ることができるようにするために、広い視野108を有
し、したがって、その精度は粗いけれども、3次元セン
サ110は、比較的狭い視野111内で高精度の検出を
可能とする.
このようにしてロボット105によってコンベア100
上のワーク102を把持した後、3次元センサ110を
用いて、ロボット105によって把持されているワーク
102の一対の各孔103の中心位置を検出するように
しているので、ロボット105の真空パツド115によ
ってワーク102を把持する瞬間にぶれを生じたときな
どであっても、そのワーク102の孔103の中心位置
を3次元で高精度に検出することが可能である.ステッ
プn7では,処理回路112は3次元センサ110の出
力に応答し、ロボット105によるワーク102の現在
の把持位置と、予め定める基準把持位置とのずれ量を求
める。ロボット105では、その基準把持位置にあるワ
ーク102を移動して孔103を、固定位置に高精度に
設定されているピン107にはめ合うためのワーク移動
の教示データが予めストアされている。したがってステ
ップn8では、このずれ量によって、基準把持位直に対
応する予め定める固定位置にある一対のピン107への
ワーク移動の教示データを補正する.この補正の結果に
よって、ロボット105は、把持しているワーク102
の一対の孔103をピンi07にはめ合うようにステッ
プn9において移動する.このようにしてコンベア10
0によって任意の位置および姿勢で搬送されてくるワー
ク102を組立ステージ106に高精度で位置決めする
ことが可能になる.
コンベア100によってその形状が異なる複数種類のワ
ークが搬送されてくるとき、前述のように2次元センサ
109によってそのワークの種類を識別し、各種類のワ
ークの把持位置を求めるようにしてもよい.
本発明の他の実施例として、コンベア100によって搬
送されるワーク102の供給位置が、各ワー2102の
種類毎に決まっているときには、ロボット105にワー
クの把持位置を予め教示しておけばよく、これによって
ロボットは予め定める供給位置にあるワークを、そのワ
ークの予め定める把持位置で把持して、その把持したワ
ークを3次元センサ110の視野111に自動的にもた
らすことができる.このとき、この3次元センサ110
によって、ロボット105の真空バツド115で把持さ
れたワーク102の孔103を高精度で検出することに
よって、ワーク供給位置のばらつきが存在しても、また
ワークをロボット105で把持する瞬間にぶれが生じて
も、前記ずれ量の演算を行うことによって、ロボット1
05を用いてワーク102の孔103にピン107をは
め合うように位置決めすることが可能である。In this way, the workpiece 102 is
When gripping the workpiece 102, the position of the center of gravity 113 of the workpiece 102 and the posture in the longitudinal direction 114 of the workpiece 102 are detected to determine the gripping position 104. Based on the information, the workpiece 102 is gripped by the vacuum butt 115 of the robot 105. Grasp. Next, in step n4, the workpiece 102 gripped by the robot 105 is placed in the field of view 1 of the three-dimensional sensor 110.
Move to 11 and bring. A pair of holes 103 formed in the workpiece 102 are captured with high precision by this three-dimensional sensor 110, and the center positions of these holes 103 are calculated and detected in step n6. The aforementioned two-dimensional sensor 109
has a wide field of view 108 in order to be able to image the entire image of the work 102 in the field of view 108, and therefore, although its accuracy is rough, the three-dimensional sensor 110 can capture the entire image of the workpiece 102 within a relatively narrow field of view 111. Enables highly accurate detection. In this way, the conveyor 100 is
After gripping the upper workpiece 102, the three-dimensional sensor 110 is used to detect the center position of each pair of holes 103 in the workpiece 102 gripped by the robot 105, so that the vacuum pad 115 of the robot 105 Even if the workpiece 102 is shaken at the moment the workpiece 102 is gripped, the center position of the hole 103 in the workpiece 102 can be detected with high accuracy in three dimensions. In step n7, the processing circuit 112 responds to the output of the three-dimensional sensor 110 and calculates the amount of deviation between the current gripping position of the workpiece 102 by the robot 105 and a predetermined reference gripping position. The robot 105 stores in advance workpiece movement teaching data for moving the workpiece 102 at its reference gripping position and fitting the hole 103 into the pin 107 that is set at a fixed position with high precision. Therefore, in step n8, the teaching data for moving the workpiece to the pair of pins 107 at a predetermined fixed position corresponding to the reference gripping position is corrected based on this amount of deviation. Based on the result of this correction, the robot 105 can
is moved in step n9 so that the pair of holes 103 are fitted with the pin i07. In this way conveyor 10
0 makes it possible to position the workpiece 102 transported at any position and orientation on the assembly stage 106 with high precision. When a plurality of types of workpieces having different shapes are conveyed by the conveyor 100, the type of the workpieces may be identified by the two-dimensional sensor 109 as described above, and the gripping position of each type of workpiece may be determined. As another embodiment of the present invention, when the supply position of the workpiece 102 conveyed by the conveyor 100 is determined for each type of workpiece 2102, the robot 105 may be taught the gripping position of the workpiece in advance. As a result, the robot can grip a workpiece located at a predetermined supply position at a predetermined gripping position of the workpiece, and automatically bring the gripped workpiece to the field of view 111 of the three-dimensional sensor 110. At this time, this three-dimensional sensor 110
By detecting with high precision the hole 103 of the workpiece 102 gripped by the vacuum pad 115 of the robot 105, even if there are variations in the workpiece supply position, it is possible to prevent vibrations from occurring at the moment the workpiece is gripped by the robot 105. However, by calculating the amount of deviation, the robot 1
05 can be used to position the pin 107 so that it fits into the hole 103 of the workpiece 102.
第4図は、3次元センサ110によって孔103を3次
元的に捕えるための構成を示す斜視図である.ワー21
02の平面である表面に臨んで真円の孔103が形戒さ
れている.この孔103には、複数(この実施例では2
)のスリット光が照射される.なお、カメラとスリット
光を照射する2台の投光器3.4は一体化されている。FIG. 4 is a perspective view showing a configuration for three-dimensionally capturing the hole 103 by the three-dimensional sensor 110. War 21
A perfectly circular hole 103 is formed facing the plane surface of 02. This hole 103 has a plurality of holes (two in this embodiment).
) is irradiated with slit light. Note that the camera and the two projectors 3.4 that emit slit light are integrated.
スリット光は参照符5.6でそれぞれ示される平面であ
る.ワーク102の表面にある光切断線は孔103にお
いて欠落しており、これらの端点を参照符A,B,C,
Dでそれぞれ示す.ワーク102の表面は、工業用テレ
ビカメラ7によって撮像される.このカメラ7は、電荷
蓄積素子(略称CCD)の撮像面8と、ワーク102の
表面を撮像面8に結像するレンズ9とを含む.ワーク1
02の3次元座標系をx,y,zで示し、カメラ7のカ
メラ座標系(CCDの撮像面上に設定される座標系)を
Xc,Ycで示す。カメラ7からの出力は、処理回路1
0に与えられる.
第5図は、第4図に示される3次元センサ1lOの電気
的構戒を示すブロック図である.投光器3.4は駆動回
路11.12によって駆動される.処理回路10に備え
られているテレビカメラコントロール13は、カメラ7
の電荷蓄積素子にライン14を介して同期信号を与え、
これによって電荷蓄積素子から得られる映像信号はライ
ン15を介して処理回路10のアナログ/デジタル変換
回路・16に与えられてデジタル値に変換される.こう
して得られるアナログ/デジタル変換回路16からの出
力は、しきい値設定器17からの弁別レベルであるしき
い値と、比較器l8において比較されて、ライン19か
らは2値化信号が得られる.この2値化信号は、フレー
ムメモリ20にストアされる.メモリ20の内容は、バ
ス21を介して処理手段22に与えられ、また通信コン
トローラ23を介して外部の処理回路112とデータの
転送を行うことができる.このような基本的な構成を有
する本発明の一実施例において、まず孔103の中心位
置の計測を行い(後述の【章〜U章)、次にワーク10
2の平面である表面の傾き、すなわち姿勢角を計測し(
後述のm章)、さらにまた、そのワーク102の一表面
とカメラ7との間の距離を計測する(後述の■章〉.
まず孔103の円の中心位置の計測iF!を説明する.
処理回路10では、第6図のステップu1からステップ
u2に移り,交差する2本のスリット光5.6を、孔1
03を含む平面に対して投光し、孔103の縁で欠落す
る4つの端点A,BC,Dの3次元位置を計測する.
!、スリット光5,6による点A,B,C,Dの3次元
位置の計測方法.
第7図に示されるようにスリット光の投光器3と、カメ
ラ7とを配置し、スリット光平面5上の1点P(このP
は、前述の、A,B,C,Dを代表して表す)の物体座
標系での座標を(X YZ)、点Pの撮像面8上の像
の座標をカメラ座標系でQ (Xc,Yc)とする.カ
メラ7の透視変換を第1式に示す.
またスリット光平面5の方程式を第2式に示す.a*X
+b*Y+Z=d
・・+ (2)したがって、Pの物体座標系におけ
る座標(X,Y,Z)は第1式および第2式を連立させ
て解くことによって求まる.基本的には、スリット光平
面5.6上にあるすべての点の3次元座標を求めること
ができる.
第1式と第2式から成る連立方程式を解く前に、係数(
C++〜Cz4.h,a,b,d)を予め求めておく.
以下にその方法を示す.
(1)カメラパラメータのキヤリプレーションについて
.
第1式の01.〜C34をカメラパラメータと称す?.
カメラパラメータとは、レンズ9の焦点距離、レンズ9
の主点の位置、レンズ9と受光面すなわち撮像面8との
距離などに依存して決定される値である.これらの値を
実測することは困難であるので、次の手法で求める。The slit beams are planes respectively indicated by reference numerals 5.6. The optical cutting line on the surface of the workpiece 102 is missing at the hole 103, and these end points are designated by reference marks A, B, C,
Each is indicated by D. The surface of the workpiece 102 is imaged by an industrial television camera 7. This camera 7 includes an imaging surface 8 of a charge storage device (abbreviated as CCD) and a lens 9 that images the surface of the workpiece 102 on the imaging surface 8. Work 1
The three-dimensional coordinate system of camera 7 is indicated by x, y, z, and the camera coordinate system of camera 7 (coordinate system set on the imaging surface of CCD) is indicated by Xc, Yc. The output from the camera 7 is the processing circuit 1
Given to 0. FIG. 5 is a block diagram showing the electrical configuration of the three-dimensional sensor 11O shown in FIG. The projector 3.4 is driven by a drive circuit 11.12. A television camera control 13 provided in the processing circuit 10 controls the camera 7.
providing a synchronization signal via line 14 to the charge storage element of;
As a result, the video signal obtained from the charge storage element is applied to the analog/digital conversion circuit 16 of the processing circuit 10 via the line 15 and converted into a digital value. The output from the analog/digital conversion circuit 16 obtained in this way is compared with a threshold value which is a discrimination level from the threshold setting device 17 in a comparator l8, and a binarized signal is obtained from a line 19. .. This binary signal is stored in the frame memory 20. The contents of the memory 20 are given to the processing means 22 via the bus 21, and data can be transferred to an external processing circuit 112 via the communication controller 23. In one embodiment of the present invention having such a basic configuration, first, the center position of the hole 103 is measured (chapters [Chapters to U to be described later), and then the workpiece 10 is measured.
Measure the inclination of the surface, which is the plane of 2, that is, the attitude angle (
(Chapter M, described later), and furthermore, measure the distance between one surface of the workpiece 102 and the camera 7 (Chapter ■, described later). First, the measurement iF! of the center position of the circle of the hole 103 will be explained.
In the processing circuit 10, the process moves from step u1 to step u2 in FIG.
03, and measure the three-dimensional positions of the four end points A, BC, and D that are missing at the edge of the hole 103. ! , a method for measuring the three-dimensional positions of points A, B, C, and D using slit lights 5 and 6. As shown in FIG. 7, the slit light projector 3 and camera 7 are arranged, and one point P on the slit light plane 5 (this
are (X , Yc). The perspective transformation of camera 7 is shown in the first equation. In addition, the equation for the slit light plane 5 is shown in the second equation. a*X
+b*Y+Z=d
...+ (2) Therefore, the coordinates (X, Y, Z) of P in the object coordinate system can be found by solving the first and second equations simultaneously. Basically, the three-dimensional coordinates of all points on the slit light plane 5.6 can be determined. Before solving the simultaneous equations consisting of the first and second equations, the coefficient (
C++~Cz4. h, a, b, d) are determined in advance.
The method is shown below. (1) Regarding calibration of camera parameters. 01 of the first formula. ~C34 is called camera parameter? ..
The camera parameters are the focal length of lens 9,
This value is determined depending on the position of the principal point of , the distance between the lens 9 and the light-receiving surface, that is, the imaging surface 8, etc. Since it is difficult to actually measure these values, they are determined using the following method.
第1式を展開し、係数hを消去すると、C1 1*x+
cl ■本y+c.,本z+c,4−C31 本Xc*
X−C32*Xc*Y−C33本Xc*Z−C3tDc
= 0・・(3−1 〉
C21$X”C22本Y”C2)*Z”C24−C31
車Xc本X−Cs2本Xc*Y−C)一Xc*Z−Cz
<*Xc= 0・・(3−2)
となる.したがって、同一平面上にない6点の既知の3
次元座標と、それぞれに対応するカメラ座標を第3−1
式および第3−2式に代入し、12元連立方程式を解く
ことによって12個の未知数(C11〜C,,)が求ま
る.ここではカメラパラメータの算出の精度を向上する
ために、3次元座標が既知のn点(n>6>の計測を行
い、最小2乗法によって求める.
第3式から、係数CIl〜C24に関する次の12元2
n連立方程式が得られる.
EネG=F
・・・(4)
?=[Xc+ Yc1・・・・・・・・・・・・・・・
・・・・・・・Xcn Yc.] t・・・(6)G−
[C11C,2 Cl− C14 C21 C2■C
23 C21 C,,C32 C33] ’ ・・
・(7−1 )ただし、
C3→01 ・・・(
7−2)最小2乗法により
G= (Et*E)−1*E’*F
・・・(8〉を計算すると、Gが求まる.
(2)スリット光の平面の方程式の係数の算出.スリッ
ト光の平面上の既知の3点の3次元位置を第2式に代入
すれば、a,b,dに関する3元連立方程式が得られる
ので、これを解けばa,b,dを算出できる。ここでは
精度を上げるために、既知のn点(n>3)の3次元座
標を第2式に代入し、次の3元n連立方程式を最小2乗
法で解く.これを
J*K=L ・・・
(10)と置けば、
K= (Jt*J)−’lJt*L
・・・(1l〉より求まる.
(3)特徴点の3次元座標の算出.
前述の方法でC z”’−C 34. a , b ,
dを求めておけば、特徴点の3次元座標は第2式と第
3式を連立して、次式を解くことで求まる。Expanding the first equation and eliminating the coefficient h, C1 1*x+
cl ■Book y+c. , book z+c, 4-C31 book Xc*
X-C32*Xc*Y-C33pcsXc*Z-C3tDc
= 0... (3-1 >C21$X"C22 pieces Y"C2)*Z"C24-C31
Car Xc X-Cs 2 Xc*Y-C) 1
<*Xc= 0...(3-2). Therefore, the known 3 points of 6 points that are not on the same plane
The dimensional coordinates and the corresponding camera coordinates are shown in 3-1.
By substituting into Equation and Equation 3-2 and solving the 12-element simultaneous equations, 12 unknowns (C11 to C,,) are found. Here, in order to improve the accuracy of camera parameter calculation, we measure n points (n>6>) with known three-dimensional coordinates and find them using the least squares method. 12 yuan 2
n simultaneous equations are obtained. EneG=F...(4)? =[Xc+ Yc1・・・・・・・・・・・・・・・
......Xcn Yc. ] t...(6)G-
[C11C,2 Cl- C14 C21 C2■C
23 C21 C,,C32 C33] '...
・(7-1) However, C3→01...(
7-2) G = (Et*E)-1*E'*F by least squares method
...By calculating (8>), G is found. (2) Calculating the coefficients of the equation of the plane of the slit light. Substituting the three-dimensional positions of the known three points on the plane of the slit light into the second equation , a, b, and d are obtained, and by solving this, a, b, and d can be calculated.Here, to increase the accuracy, we will calculate the three-dimensional coordinates of known n points (n>3). Substitute into the second equation and solve the following 3-dimensional n simultaneous equations using the method of least squares.J*K=L...
(10), then K= (Jt*J)-'lJt*L
...(1l). (3) Calculating the three-dimensional coordinates of the feature points. Using the method described above, calculate C z"'-C 34. a , b ,
Once d has been determined, the three-dimensional coordinates of the feature point can be determined by combining the second and third equations and solving the following equation.
M*N=R ・・・(
12)ただし、
(以下余白)
N=[X Y Z]t
・・・(14)R=[Cz C,<*Xc
C24 C*4*Vc d]t −(1
5−1)ただし、
0゜“=1 ・・・(1
5−2)第12式より、
N=M−’*R ・・
・(16)■、点A,B,C,Dを通る円の中心の計測
方法。M*N=R...(
12) However, (below the margin) N=[X Y Z]t
...(14) R=[Cz C, <*Xc
C24 C*4*Vc d]t −(1
5-1) However, 0゜"=1 ... (1
5-2) From formula 12, N=M-'*R...
・(16)■, How to measure the center of a circle passing through points A, B, C, and D.
点A,B,C,Dを通る円の中心は、 (la>4点A,B,C,Dを通る平面上にある。The center of the circle passing through points A, B, C, and D is (la>Located on a plane passing through 4 points A, B, C, and D.
(2a)各点A,B,C,Dからの距離が等しい.
という2つの条件1a,2aから求まる.(1)ワー2
102の表面である4点A,BC,Dを含む平面P13
、すなわち第8図の紙面の方程式の係数の算出(第6図
のステップu3).4点A,B,C,Dを含む平面の法
線ベクトル戒分は、Z戒分が大き<、X,Y戒分および
距離が小さいので、平面の方程式を次式で表す。(2a) The distances from each point A, B, C, and D are equal. It is determined from the two conditions 1a and 2a. (1) War 2
A plane P13 containing four points A, BC, and D, which is the surface of 102
, that is, calculation of the coefficients of the equation on the paper in FIG. 8 (step u3 in FIG. 6). The normal vector command of a plane including four points A, B, C, and D is such that Z command is large <, X, Y command and distance are small, so the equation of the plane is expressed by the following equation.
a+*X+bl*y+z=cL
− (17)4点A,B,C,Dは、この平面上の点で
あるので、
これにより、最小2乗法でa,b,dを算出し、あるい
はまた3点A,B,Cの場合には、1行の戒分を無視し
て逆行列でa + + b l + d l を算出す
る.
(2)各点A,B,C,Dのうちの2点がらの距離が等
しい平面の方程式の係数の算出.各点からの距離が等し
い点(x,y,z)は次式で表すことができる.
(x−x+)’+(y y+)2+(z−z,)2:r
2・−・(19)(i=1〜4〉
精度よく算出するために、互いに距離の大きい2点を用
いて算出する.ここでは点A,Bと点CDのベアを用い
る.
第8図の平面図を参照して、点A,Bから等しい距離に
ある点は次式になる(第6図のステップu4)。a+*X+bl*y+z=cL
- (17) Since the four points A, B, C, and D are points on this plane, we can calculate a, b, and d using the least squares method, or we can also calculate the three points A, B, and C. In this case, calculate a + + b l + d l using the inverse matrix, ignoring the precepts in the first row. (2) Calculating the coefficients of the equation for a plane in which two of the points A, B, C, and D have the same distance. Points (x, y, z) that are the same distance from each point can be expressed by the following formula. (x-x+)'+(y y+)2+(z-z,)2:r
2.-.(19) (i = 1 to 4) In order to calculate accurately, two points with a large distance from each other are used for calculation.Here, points A, B and points CD are used as bare points. Fig. 8 Referring to the plan view of , the points at equal distances from points A and B are expressed as follows (step u4 in FIG. 6).
−2Jx, *x十x.”−2’l’y+ *y+y,
’−:/kz. *z+z12=−2*x2*x+x2
’−2*y2*y+y2”−2*Z2*Z+22”
・’・(20−1)2(x,−x2)*x+
2(y+ yz)”y+2(z+ zz)*z”(
X+” X2”) + (yl2Yz”)+ (z12
222) − (20−2)この第20
−2式を、
a2*x+b2*y+c2*z=d2− (20−3>
と置く。第20−3式は、平面Pllの式である.点C
,Dも同様に算出する(第6図のステップu5)。-2Jx, *xx. ”-2'l'y+ *y+y,
'-:/kz. *z+z12=-2*x2*x+x2
'-2*y2*y+y2"-2*Z2*Z+22"
・'・(20-1)2(x,-x2)*x+
2(y+ yz)”y+2(z+ zz)*z”(
X+"X2") + (yl2Yz")+ (z12
222) - (20-2) This 20th
-2 formula, a2*x+b2*y+c2*z=d2- (20-3>
Put it as. Equation 20-3 is the equation for the plane Pll. Point C
, D are calculated in the same way (step u5 in FIG. 6).
2(x*−xJ*x+2(yz−y+)*y+2(zz
−z<)*z一(X*” x42)+(yi” 3’4
Q +(23” Z4”) ・・・(21−
1>これを
a.*x+b,*y+c.*z=d.
−−− (21−2)と置く.第21−2式は、平
面P12の式である.(3)円の中心Oの算出.
第17式、第20−3式、第21−2式の3平面の交点
が円の中心である。したがって、円の中心座標(xcl
,ycl,zcl)は次式の連立方程式を解くことで求
まる(第6図のステップU6)。2(x*-xJ*x+2(yz-y+)*y+2(zz
-z<)*z-(X*"x42)+(yi"3'4
Q + (23"Z4") ... (21-
1> Do this a. *x+b, *y+c. *z=d.
--- Put it as (21-2). Equation 21-2 is the equation for plane P12. (3) Calculation of the center O of the circle. The intersection of the three planes of Equation 17, Equation 20-3, and Equation 21-2 is the center of the circle. Therefore, the center coordinates of the circle (xcl
, ycl, zcl) can be found by solving the following simultaneous equations (step U6 in FIG. 6).
これより
■、平面P13のX軸まわりの姿勢角αおよびY軸まわ
りの姿勢角βの計測。From this, ■, the attitude angle α around the X axis and the attitude angle β around the Y axis of the plane P13 are measured.
第9図(1〉において、平面P13aがX軸まわりに+
Δαだけ角変位して平面P13bの姿勢となったとき、
スリット光5の平面P13a上の光切断線26は、平面
P13b上では光切断線27のとおりとなる.カメラ7
の撮像面8において、α=Oの光切断線26の像は参照
符26aで示され、その回転後の光切断線27の像は参
照符27aで示される.また第10図(1)で示される
ように、平面P13cがY軸まわりに角度Δβだけ角変
位して平面P13dとなったときには、平面P13c上
の光切断線28は平面P13d上で光切断4129とな
る.したがってカメラ7の撮像面8において、光切断線
28の@28aは光切断線29の像29aとなる.こう
して撮像面8上の像27a.29aによって,平面P1
3a.P13bの相互の角度Δαと平面P13c,P1
3dの角度十Δβを演算して求めることができる.第9
図および第10図にΔα.Δβの定義を示し、さらに第
11図〜第13図を参照して平面の傾きを求める手法に
ついて具体的に述べる.
(1)第12図に示される対象面P13のX軸まわりの
姿勢角αと、その対象面P13のY軸まわりの姿勢角β
とを求めるにあたり、まず■カメラ7の撮像面8上の水
平スリット光の光切断線30の方程式を予め求めておき
、この光切断線30の方程式と、■予め求めておいた前
述のカメラパラメータC.〜C34とがら、■光切断線
3oとレンズ9の主点を通る平面P14の方程式を求め
る(第11図のステップml,m2)。また■スリット
光の平面P15の方程式を予め求めておく(第11図の
ステップm3).
(2)前のバラグラフ(1)で示した方程式■■,■と
、カメラパラメータ■とによって、平面P14,P15
の各平面の法線ベクトルを求め、その法線ベクトルをP
2,P)とし、平面P14P15の交線31の方向ベク
トルを
1 −= (1, t4, u4)
− (24)とすると、l,とP2,P,とは
直交するので、P2・l<=O
・・・(25)Pコ ・ i!.=o
・・ (26)これにより
、14が求められる(第11図のステツブm4)。In Fig. 9 (1), the plane P13a is + around the X axis.
When angularly displaced by Δα and assumed the attitude of plane P13b,
The optical cutting line 26 of the slit light 5 on the plane P13a becomes the optical cutting line 27 on the plane P13b. camera 7
On the imaging plane 8, the image of the optical section line 26 with α=O is indicated by reference numeral 26a, and the image of the optical section line 27 after rotation thereof is indicated by reference numeral 27a. Further, as shown in FIG. 10 (1), when the plane P13c is angularly displaced by the angle Δβ around the Y axis and becomes the plane P13d, the light section line 28 on the plane P13c is the light section 4129 on the plane P13d. becomes. Therefore, on the imaging surface 8 of the camera 7, @28a of the light section line 28 becomes an image 29a of the light section line 29. In this way, the image 27a on the imaging surface 8. 29a, the plane P1
3a. Mutual angle Δα of P13b and planes P13c, P1
It can be found by calculating the angle Δβ of 3d. 9th
Δα. The definition of Δβ will be shown, and the method for determining the inclination of a plane will be specifically described with reference to FIGS. 11 to 13. (1) The attitude angle α of the target plane P13 around the X-axis shown in FIG. 12 and the attitude angle β of the target plane P13 around the Y-axis
In order to obtain, first, ① the equation of the light section line 30 of the horizontal slit light on the imaging surface 8 of the camera 7 is obtained in advance, and the equation of this light section line 30 and ① the above-described camera parameters obtained in advance. C. ~C34, ① An equation of a plane P14 passing through the optical cutting line 3o and the principal point of the lens 9 is determined (steps ml and m2 in FIG. 11). Also, ② Obtain the equation of the plane P15 of the slit light in advance (step m3 in Fig. 11). (2) By the equations ■■, ■ shown in the previous bar graph (1) and the camera parameters ■, planes P14, P15
Find the normal vector of each plane in P
2, P), and the direction vector of the intersection line 31 of planes P14P15 is 1 −= (1, t4, u4)
− (24), then l, and P2, P, are orthogonal, so P2・l<=O
...(25)Pco ・i! .. = o
(26) From this, 14 is obtained (step m4 in Fig. 11).
(3〉同様にして第13図がら、光切断線32とカメラ
パラメータより平面P16の方程式を求め、平面P17
の方程式も求めておけば、平面P16,P17の法線ベ
クトルをそれぞれP8,P7、交線33の方向ベクトル
を
R *= (ss+ 1, us) .
−(27)として、
Ps’1s=O ・・・
(28)P,・1 .=O
・・・(29)これにより、l,が求められる(第
l1図のステップm7).
この第13図において、平面P16はレンズ9の主点を
通る平面であり、P17は投光器3のスリフト光がなす
平面を示している。(3> In the same way as shown in FIG.
If you also find the equation, the normal vectors of the planes P16 and P17 are P8 and P7, respectively, and the direction vector of the intersection line 33 is R*= (ss+ 1, us).
-(27), Ps'1s=O...
(28)P,・1. =O
...(29) As a result, l, is obtained (step m7 in Fig. l1). In FIG. 13, a plane P16 is a plane passing through the principal point of the lens 9, and P17 is a plane formed by the thrift light of the projector 3.
(4)対象面P13の法線ベクトル
Po” (So, to, 1)
・・・〈30)
はl 4+ 12 8に直交するから、P.−14=O
P0・l,=0
これにより、P0が求められる(第1
・・・(31)
・・・(32)
1図のステ
ツプm8〉.
センサの撮像面8の対象面P13に対する姿勢角α(X
軸まわりの回転角)、β(Y軸まわりの回転角)は次式
で求められる(第11図のステップm9)。(4) Since the normal vector Po” (So, to, 1) ... <30) of the target surface P13 is orthogonal to l 4+ 12 8, P.-14=O P0・l,=0 As a result, P0 is found (1st ... (31) ... (32) Step m8 in Figure 1). Attitude angle α (X
(rotation angle around the axis) and β (rotation angle around the Y-axis) are determined by the following formula (step m9 in FIG. 11).
α=jan−’ (to)
− (33)β=jan−l(so)
−(34)■、距離の計測方法.
第14図に示されるように、平面P13eとカメラ7の
撮像面8との間の距離を計測する際、この平面P13e
がP13fおよびP13gで示すように検出可能な範囲
で変位すると、第14図(2)で示されるように撮像面
8上では、投光器3のスリット光5の光切断線34,3
5.36は像34a,35a,36aとなって検出され
る。このようにして撮像面8上の像34a,35a,3
6aを検出することによって、平面P13e,P13f
,PL3gの距離を計測することができる。α=jan-' (to)
- (33) β=jan-l(so)
-(34)■, How to measure distance. As shown in FIG. 14, when measuring the distance between the plane P13e and the imaging surface 8 of the camera 7, this plane P13e
is displaced within a detectable range as shown by P13f and P13g, on the imaging surface 8, as shown in FIG.
5.36 are detected as images 34a, 35a, and 36a. In this way, the images 34a, 35a, 3 on the imaging surface 8
By detecting planes P13e and P13f
, PL3g can be measured.
この手法を第15図および第16図を参照してさらに具
体的に説明する.
(1)カメラ7の光軸の方程式は、
x=y=o ・・・(
35〉であって、その撮像面8と対象面P13との距離
dは、カメラ7のレンズ9の光軸と対象面P13の交点
のZ座標と定義する。This method will be explained in more detail with reference to FIGS. 15 and 16. (1) The equation of the optical axis of camera 7 is x=y=o...(
35>, and the distance d between the imaging plane 8 and the object plane P13 is defined as the Z coordinate of the intersection of the optical axis of the lens 9 of the camera 7 and the object plane P13.
対象面P13上の1点の座標を求めれば、対象面P13
の法線ベクトルとから対象面P13の平面の方程式が決
定できる。その点は、平面P14P15.P17の交点
として得られ、その点を、(Xo, 3’o+ zo
)とすると、対象面P13の方程式は、
so(x−xo)+to(y−yo)+1−(z−zo
)’=O ・(36)となる(第15図のステップ
r 1 ,r 2 ) #(2)距ldは、
d=soXotoYo+Zo
・・・(37)として求められる(第l5図のステップ
r3,r4).
■、面位置の計測.
第17図を参照して、面13の位置計測にあたっては、
単一の投光器4からのスリット光6を投光し、カメラ7
の光軸37は、物体座標系のX−Y平面に垂直であるも
のとする.このとき、計測対象となる平面P13とスリ
ット光平面6の交線38上のl点39の3次元位置を計
測し、そのZ軸或分を面位y1(すなわち高さ)とする
.本発明は、孔103の中心位置を計測することができ
るだけではなく、その孔103の面積およびその他の物
理量を広く演算して求めることが可能であり、そのよう
な改変は当業者に容易である.発明の効果
以上のように本発明によれば、搬送手段によって搬送さ
れてきたワークを2次元センサによって撮像してワーク
の把持位置を検出し、この把持位置をロボットで把持し
てワークを3次元センサの視野にもたらして一対の孔の
位置を、ワークをロボットで把持した状態で検出し、こ
の3次元センサによる検出結果に基づいて、現在の把持
位置と予め定める基準把持位置とのずれ量を求め、こう
して基準把持位置に対応する予め定める固定位置にある
一対のピンへのワークの移動の教示データを、前記ずれ
量によって補正して、一対の孔を一対のピンにそれぞれ
はめ合うようにロボットによつてワークを移動するよう
にしたので、ワークを高精度に位置決めすることが自動
的に可能となる。If the coordinates of one point on the target plane P13 are found, the target plane P13
The equation of the plane of the target surface P13 can be determined from the normal vector. The point is plane P14P15. It is obtained as the intersection of P17, and the point is expressed as (Xo, 3'o+ zo
), the equation for the target plane P13 is so(x-xo)+to(y-yo)+1-(z-zo
)'=O ・(36) (steps r 1 , r 2 in FIG. 15) #(2) The distance ld is d=soXotoYo+Zo
...(37) (steps r3 and r4 in Figure 15). ■Measurement of surface position. Referring to FIG. 17, in measuring the position of surface 13,
A slit light 6 is emitted from a single light projector 4, and a camera 7
It is assumed that the optical axis 37 of is perpendicular to the X-Y plane of the object coordinate system. At this time, the three-dimensional position of point 39 on the intersection line 38 of the plane P13 to be measured and the slit light plane 6 is measured, and a certain portion of the Z-axis is taken as the surface position y1 (that is, the height). The present invention can not only measure the center position of the hole 103, but also calculate the area of the hole 103 and other physical quantities widely, and such modifications are easy for those skilled in the art. .. Effects of the Invention As described above, according to the present invention, a two-dimensional sensor images a workpiece transported by a transporting means to detect the gripping position of the workpiece, and this gripping position is gripped by a robot to display the workpiece in three dimensions. The positions of the pair of holes are detected while the workpiece is being held by the robot in the field of view of the sensor, and based on the detection results by this three-dimensional sensor, the amount of deviation between the current gripping position and the predetermined reference gripping position is calculated. In this way, the teaching data for moving the workpiece to the pair of pins at a predetermined fixed position corresponding to the reference gripping position is corrected by the amount of deviation, and the robot is configured to fit the pair of holes into the pair of pins, respectively. Since the workpiece is moved by the , it becomes possible to automatically position the workpiece with high precision.
こうして2次元センサによって広い視野で高精度の検出
を行う必要がなくなる.
また本発明によれば、複数種類のワークが搬送されてく
るとき、2次元センサによってそのワークの種類を識別
し、各種類毎のワークの把持位置を検出することもまた
可能である.
さらに本発明によれば、ワークの供給位置がワークの種
類毎に決まっているときには、ワークの把持位置をロボ
ットに予め教示しておくことによって、前述の2次元セ
ンサを省略することができ、これによって楕成が簡略化
される.This eliminates the need for highly accurate detection over a wide field of view using a two-dimensional sensor. Furthermore, according to the present invention, when multiple types of workpieces are transported, it is also possible to identify the type of workpieces using a two-dimensional sensor and detect the gripping position of each type of workpiece. Furthermore, according to the present invention, when the workpiece supply position is determined for each type of workpiece, the aforementioned two-dimensional sensor can be omitted by teaching the robot the gripping position of the workpiece in advance. The ellipse is simplified by .
第1図は本発明の一実施例の構成を示す斜視図、第2図
はワーク102の平面図、第3図は処理回路112の動
作を説明するためのフローチャート、第4図は本発明の
一実施例の3次元センサ110の簡略化した斜視図、第
5図は第4図に示される3次元センサ110の電気的構
成を示すブロック図、第6図は孔103の中心位置の算
出手順を示すフローチャート、第7図はスリット光5に
よる点Pの3次元位置計測の手法を示す斜視図、第8図
は平面P13の平面図、第9図は平面の姿勢角αの定義
を示す図、第10図は平面の姿勢角βの定義を示す簡略
化した図、第11図は姿勢角αβを計測する手順を示す
フローチャート、第12図および第l3図は対象面P1
3のX軸まわりの姿勢角αとY軸まわりの姿勢角βを計
測するための手法を示す簡略化した図、第14図は平面
P13e,P13f,P13gの距離の計測原理を示す
簡略化した図、第15図は平面の距1m1dの算出手順
を示すフローチャート、第16図は距ldの計測を行う
ための構成を簡略化して示す図、第17図は本発明のさ
らに他の実施例の面13の位置計測を行う原理を示す簡
略化した図である。
100・・・コンベア、102・・・ワーク、103・
・・孔、104・・・把持位置、105・・・ロボット
、107・・・ピン、109・・・2次元センサ、11
0・・・3次元センサ、111・・・視野、112・・
・処理回路第
3
C
第
4
図
第
5
図
第
8
図
第
9
図
第10図
第
11
図
第13
図
第
14図
第
15図
第17図FIG. 1 is a perspective view showing the configuration of an embodiment of the present invention, FIG. 2 is a plan view of a workpiece 102, FIG. 3 is a flowchart for explaining the operation of the processing circuit 112, and FIG. A simplified perspective view of the three-dimensional sensor 110 of one embodiment, FIG. 5 is a block diagram showing the electrical configuration of the three-dimensional sensor 110 shown in FIG. 4, and FIG. 6 is a procedure for calculating the center position of the hole 103. 7 is a perspective view showing a method of three-dimensional position measurement of point P using slit light 5, FIG. 8 is a plan view of plane P13, and FIG. 9 is a diagram showing the definition of attitude angle α of the plane. , FIG. 10 is a simplified diagram showing the definition of the attitude angle β of the plane, FIG. 11 is a flow chart showing the procedure for measuring the attitude angle αβ, and FIGS.
Figure 14 is a simplified diagram showing the method for measuring the attitude angle α around the X-axis and the attitude angle β around the Y-axis in Figure 14. 15 is a flowchart showing the procedure for calculating the distance 1m1d in the plane, FIG. 16 is a diagram showing a simplified configuration for measuring the distance ld, and FIG. FIG. 2 is a simplified diagram showing the principle of measuring the position of the surface 13. FIG. 100... conveyor, 102... work, 103...
... hole, 104 ... gripping position, 105 ... robot, 107 ... pin, 109 ... two-dimensional sensor, 11
0... Three-dimensional sensor, 111... Field of view, 112...
・Processing circuit 3rd C Figure 4 Figure 5 Figure 8 Figure 9 Figure 10 Figure 11 Figure 13 Figure 14 Figure 15 Figure 17
Claims (2)
るワークを、2次元センサによつて撮像して、その2次
元センサの撮像結果に基づいて、ロボットによつて把持
すべきワークの把持位置を検出し、その把持位置をロボ
ットで把持して、ワークを、3次元検出が可能な3次元
センサの視野にもたらし、 ワークをロボットで把持した状態で、前記一対の孔の位
置を3次元センサによつて検出し、3次元センサによる
前記一対の孔の位置の検出結果に基づいて、現在の把持
位置と予め定める基準把持位置とのずれ量を求め、 基準把持位置に対する予め定める固定位置における一対
のピンへのワーク移動の教示データを、前記ずれ量によ
つて補正し、前記一対の孔を前記一対のピンにはめ合う
ようにロボットによつてワークを移動することを特徴と
するワークのはめ合い方法。(1) A two-dimensional sensor images a workpiece having a pair of holes transported by a transporting means, and based on the imaging results of the two-dimensional sensor, a robot determines the workpiece to be gripped. The gripping position is detected, the gripping position is gripped by a robot, and the workpiece is brought into the field of view of a three-dimensional sensor capable of three-dimensional detection.With the workpiece being gripped by the robot, the positions of the pair of holes are Detected by a dimensional sensor, and based on the detection result of the position of the pair of holes by the three-dimensional sensor, determines the amount of deviation between the current gripping position and a predetermined reference gripping position, and determines the predetermined fixed position with respect to the reference gripping position. The teaching data for moving the workpiece to the pair of pins in the above is corrected by the amount of deviation, and the workpiece is moved by the robot so that the pair of holes fit into the pair of pins. How to fit.
め定める供給位置に搬送し、 この搬送されてきたワークを、ロボットで把持して、ワ
ークを3次元検出が可能な3次元センサの視野にもたら
し、 ワークをロボットで把持した状態で、前記一対の孔の位
置を3次元センサによつて検出し、3次元センサによる
前記一対の孔の位置の検出結果に基づいて、現在の把持
位置と予め定める基準把持位置とのずれ量を求め、 基準把持位置に対応する予め定める固定位置における一
対のピンへのワーク移動の教示データを、前記ずれ量に
よつて補正し、前記一対の孔を前記一対のピンにはめ合
うようにロボットによつてワークを移動することを特徴
とするワークのはめ合い方法。(2) A workpiece having a pair of holes is transported by a transport means to a predetermined supply position, and the transported workpiece is gripped by a robot and a three-dimensional sensor capable of three-dimensional detection of the workpiece is installed. With the workpiece brought into the visual field and gripped by the robot, the positions of the pair of holes are detected by a three-dimensional sensor, and the current gripping position is determined based on the detection result of the position of the pair of holes by the three-dimensional sensor. and a predetermined standard gripping position, correct the teaching data for moving the workpiece to the pair of pins at the predetermined fixed position corresponding to the standard gripping position by the deviation amount, and adjust the pair of holes. A method for fitting a workpiece, comprising moving the workpiece by a robot so that the workpiece fits into the pair of pins.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1300367A JPH0626770B2 (en) | 1989-11-17 | 1989-11-17 | Workpiece fitting method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP1300367A JPH0626770B2 (en) | 1989-11-17 | 1989-11-17 | Workpiece fitting method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH03161223A true JPH03161223A (en) | 1991-07-11 |
JPH0626770B2 JPH0626770B2 (en) | 1994-04-13 |
Family
ID=17883925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP1300367A Expired - Fee Related JPH0626770B2 (en) | 1989-11-17 | 1989-11-17 | Workpiece fitting method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0626770B2 (en) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008246659A (en) * | 2007-03-30 | 2008-10-16 | Komatsu Ltd | Position measuring apparatus for work robot |
JP2008279551A (en) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | Workpiece positioning device and workpiece positioning method |
JP2008279549A (en) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | Workpiece conveying system and workpiece conveying method |
JP2009248214A (en) * | 2008-04-03 | 2009-10-29 | Kanto Auto Works Ltd | Image processing device and robot control system |
JP2011507714A (en) * | 2007-12-27 | 2011-03-10 | ライカ ジオシステムズ アクチェンゲゼルシャフト | Method and system for accurately positioning at least one object in a final pose in space |
JP2012223840A (en) * | 2011-04-15 | 2012-11-15 | Yaskawa Electric Corp | Robot system, and inspection method using robot system |
JP2013086230A (en) * | 2011-10-20 | 2013-05-13 | Yaskawa Electric Corp | Object processing system |
JP2017095276A (en) * | 2015-11-27 | 2017-06-01 | 株式会社ニチリン | Article supply device |
JP2018008319A (en) * | 2016-07-11 | 2018-01-18 | 株式会社安川電機 | Robot system, robot control method and robot controller |
US10589422B2 (en) | 2017-01-11 | 2020-03-17 | Fanuc Corporation | Article conveying apparatus |
JP2021053742A (en) * | 2019-09-30 | 2021-04-08 | Johnan株式会社 | Robot control system, robot control method, and program |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62236632A (en) * | 1986-04-05 | 1987-10-16 | Mazda Motor Corp | Assembly device for parts |
-
1989
- 1989-11-17 JP JP1300367A patent/JPH0626770B2/en not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62236632A (en) * | 1986-04-05 | 1987-10-16 | Mazda Motor Corp | Assembly device for parts |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008246659A (en) * | 2007-03-30 | 2008-10-16 | Komatsu Ltd | Position measuring apparatus for work robot |
JP2008279551A (en) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | Workpiece positioning device and workpiece positioning method |
JP2008279549A (en) * | 2007-05-10 | 2008-11-20 | Honda Motor Co Ltd | Workpiece conveying system and workpiece conveying method |
JP2011507714A (en) * | 2007-12-27 | 2011-03-10 | ライカ ジオシステムズ アクチェンゲゼルシャフト | Method and system for accurately positioning at least one object in a final pose in space |
JP2009248214A (en) * | 2008-04-03 | 2009-10-29 | Kanto Auto Works Ltd | Image processing device and robot control system |
US9031696B2 (en) | 2011-04-15 | 2015-05-12 | Kabushiki Kaisha Yaskawa Denki | Robot system and processed object manufacturing method |
JP2012223840A (en) * | 2011-04-15 | 2012-11-15 | Yaskawa Electric Corp | Robot system, and inspection method using robot system |
JP2013086230A (en) * | 2011-10-20 | 2013-05-13 | Yaskawa Electric Corp | Object processing system |
JP2017095276A (en) * | 2015-11-27 | 2017-06-01 | 株式会社ニチリン | Article supply device |
JP2018008319A (en) * | 2016-07-11 | 2018-01-18 | 株式会社安川電機 | Robot system, robot control method and robot controller |
US10589422B2 (en) | 2017-01-11 | 2020-03-17 | Fanuc Corporation | Article conveying apparatus |
JP2021053742A (en) * | 2019-09-30 | 2021-04-08 | Johnan株式会社 | Robot control system, robot control method, and program |
WO2021065880A1 (en) * | 2019-09-30 | 2021-04-08 | Johnan株式会社 | Robot control system, robot control method, and program |
Also Published As
Publication number | Publication date |
---|---|
JPH0626770B2 (en) | 1994-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CA2555159C (en) | Method for determining the position of an object in a space | |
US8346392B2 (en) | Method and system for the high-precision positioning of at least one object in a final location in space | |
JPH04233245A (en) | System and method for inspection and alignment at semiconductor chip and conductor lead frame | |
EP1190818A2 (en) | Position-orientation recognition device | |
US12058468B2 (en) | Image capturing apparatus, image processing apparatus, image processing method, image capturing apparatus calibration method, robot apparatus, method for manufacturing article using robot apparatus, and recording medium | |
JPH03161223A (en) | Fitting of work | |
JPS62206684A (en) | Position and shape measuring method by pattern projection | |
JPS6332306A (en) | Non-contact three-dimensional automatic dimension measuring method | |
CN110519586A (en) | A kind of optical device calibration device and method | |
Armstrong et al. | RGR-3D: simple, cheap detection of 6-DOF pose for teleoperation, and robot programming and calibration | |
JP2567923B2 (en) | Distance measurement method | |
KR101626374B1 (en) | Precision position alignment technique using edge based corner estimation | |
JP2718249B2 (en) | Robot displacement detection device | |
JPH04269194A (en) | Plane measuring method | |
JP2008260599A (en) | Method for adjusting conveying face of semiconductor wafer conveying system, semiconductor wafer conveying system using it, and semiconductor manufacturing device | |
JPH11132763A (en) | Distance measuring method | |
JPH03160303A (en) | Detecting method of multiple hole | |
JPH0471673B2 (en) | ||
JPH0212710B2 (en) | ||
JPH0934552A (en) | Mobile object controller, position detection device, mobile object device and their control method | |
JPS6217604A (en) | Calibration of auxiliary light for 3-dimensional measurement | |
WO2022172471A1 (en) | Assistance system, image processing device, assistance method and program | |
JPH0770582B2 (en) | Wafer positioning device and method for returning to origin thereof | |
WO2024062535A1 (en) | Robot control device | |
JPH0339611A (en) | Calibration method between coordinate systems in robot with visual recognition device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |