JPH04203909A - Position alignment apparatus - Google Patents

Position alignment apparatus

Info

Publication number
JPH04203909A
JPH04203909A JP33589690A JP33589690A JPH04203909A JP H04203909 A JPH04203909 A JP H04203909A JP 33589690 A JP33589690 A JP 33589690A JP 33589690 A JP33589690 A JP 33589690A JP H04203909 A JPH04203909 A JP H04203909A
Authority
JP
Japan
Prior art keywords
light
component
target object
moving
shadow
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP33589690A
Other languages
Japanese (ja)
Inventor
Takashi Mitomi
三富 隆
Akira Nakada
明良 中田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP33589690A priority Critical patent/JPH04203909A/en
Publication of JPH04203909A publication Critical patent/JPH04203909A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Manipulator (AREA)

Abstract

PURPOSE:To execute position alignment of a moving body with an object highly precisely in a short time without being affected by instruction precision, by determining the relationship in relative positions on the basis of positional information obtained by recognizing a shadow from the object and two shadows formed by two light sources. CONSTITUTION:An image processing element 13 in a controller 5 recognizes first the position of a shadow formed by a hole 8 from a pattern of a laser light sensed by a camera 3, according to an instruction from a central control element 11. Next, the position of a shadow 9 of the fore end of a component 6 which is formed on a workpiece 7 by a light projected from a light source 2a and intercepted by the component 6 and the position of a shadow 10 of the fore end of the component 6 which is formed on the workpiece 7 by a light projected from a light source 2b and intercepted by the component 6 are recognized by template matching. Recognized position data thus determined are sent to the control element 11 and the relationship in relative positions of the position of the hole 8 and the position of the fore end of the component 6 is determined three-dimensionally from those positions of the fore end of the component 6 and the pattern of the hole 8. According to this constitution, position alignment of a moving body with an object can be executed highly precisely in a short time irrespective of instruction precision.

Description

【発明の詳細な説明】 産業上の利用分野 本発明は移動機構にて移動する物体を対象物体の所定位
置に位置合わせする装置に関し、例えば視覚機能を有す
るネジ締めロボットや部品挿入機や部品装着機等に利用
できる位置合わせ装置に関するものである。
DETAILED DESCRIPTION OF THE INVENTION Field of Industrial Application The present invention relates to a device that aligns an object being moved by a moving mechanism to a predetermined position on a target object, such as a screw tightening robot with a visual function, a component insertion machine, and a component mounting device. The present invention relates to an alignment device that can be used for machines, etc.

従来の技術 従来、視覚付きロボットで移動物体と対象物体との位置
合わせを行う場合、対象物体と移動物体と移動機構とし
てのロボット動作位置の基準位置を教示しておき、対象
物体の位置をカメラ入力された画像から認識し、移動物
体の位置を別のカメラで入力した画像から認識し、対象
物体が基準位置にあるときの認識位置との差と、移動物
体が基準位置にあるときの認識位置との差をもとにして
それぞれの視覚座標からロボット座標への変換を行って
移動機構の教示された基準位置からの動作補正量を決め
るという方法をかとられていた。
Conventional technology Conventionally, when aligning a moving object and a target object using a robot with vision, the reference positions of the target object, the moving object, and the robot operating position as a moving mechanism are taught, and the position of the target object is determined by a camera. Recognize the position of the moving object from the input image, recognize the position of the moving object from the image input with another camera, and calculate the difference between the recognition position when the target object is at the reference position and the recognition when the moving object is at the reference position. The method used was to convert each visual coordinate into robot coordinates based on the difference in position and determine the amount of motion correction from the taught reference position of the moving mechanism.

発明が解決しようとする課題 上記のような構成で位置合わせを行う場合、ロボット動
作や対象物体・移動物体の基準位置の教示設定が位置合
わせの作業精度に直接影響する。
Problems to be Solved by the Invention When positioning is performed with the above-described configuration, the robot operation and the teaching settings of the reference positions of the target object and moving object directly affect the accuracy of the positioning work.

そのため、高精度の位置合わせが必要な場合には教示の
手間が多大なものとなることが多い。又、位置合わせの
作業精度は教示設定の精度を超えることができない。ま
た、2度に分けて認識を行っており、さらに多くの場合
位置合わせ動作とは別ステップで認識を行うことになり
、認識のための動作を含めた作業動作の実行時間が大き
くなり易いという問題があった。
Therefore, when highly accurate positioning is required, teaching often requires a great deal of effort. Further, the accuracy of positioning work cannot exceed the accuracy of teaching settings. In addition, recognition is performed in two steps, and in many cases recognition is performed in a separate step from the alignment operation, which tends to increase the time required to perform the work operation including the recognition operation. There was a problem.

本発明は、上記問題点を鑑み、教示精度に影響を受けず
に高精度に短時間で移動物体と対象物体の位置合わせを
行える位置合わせ装置を提供することを目的とする。
SUMMARY OF THE INVENTION In view of the above-mentioned problems, it is an object of the present invention to provide an alignment device that can align a moving object and a target object with high precision in a short time without being affected by teaching accuracy.

課題を解決するための手段 上記問題点を解決するために、本発明の位置合わせ装置
は、移動機構により移動する移動物体を対象物体の所定
位置に位置合わせする位置合わせ装置であって、移動物
体から対象物体に降ろした垂線に平行でない2つの異な
る方向から移動物体及び対象物体に投光する2つの光源
と、光源の投光方向とは異なる角度で対象物体上の投光
パターンの反射光を受光するカメラと、カメラで受光し
た入力画像から移動物体と対象物体の相対位置関係を求
める画像処理手段と、相対位置関係から移動物体の移動
方向と移動量を決定し移動機構を移動制御する制御手段
とを備え、画像処理手段は、対象物体の形状から生成さ
れる陰と、2つの光源から投光された光が移動物体に遮
られて生成される2つの陰とを認識して得られる位置情
報をもとに移動物体と対象物体の相対位置関係を求める
ように構成したことを特徴とする。
Means for Solving the Problems In order to solve the above-mentioned problems, the positioning device of the present invention is a positioning device for positioning a moving object, which is moved by a moving mechanism, at a predetermined position of a target object. Two light sources that project light onto a moving object and the target object from two different directions that are not parallel to the perpendicular to the target object, and the reflected light of the light projection pattern on the target object at an angle different from the direction in which the light sources project the light. A camera that receives light, an image processing means that determines the relative positional relationship between the moving object and the target object from the input image received by the camera, and a control that determines the direction and amount of movement of the moving object from the relative positional relationship and controls the movement of the moving mechanism. and the image processing means recognizes the shadow generated from the shape of the target object and the two shadows generated when the light projected from the two light sources is blocked by the moving object. The present invention is characterized in that it is configured to determine the relative positional relationship between a moving object and a target object based on positional information.

作用 本発明の上記構成によれば、1回のカメラ入力画像処理
から移動物体と対象物体の相対位置関係を求めることが
でき、かつ相対位置関係から移動機構の移動方向及び移
動量を決定しているため、教示によらず、認識精度に応
した高い精度で位置合わせを実現できる。
According to the above configuration of the present invention, the relative positional relationship between the moving object and the target object can be determined from one camera input image processing, and the moving direction and moving amount of the moving mechanism can be determined from the relative positional relationship. Therefore, positioning can be achieved with high accuracy commensurate with recognition accuracy, regardless of teaching.

実施例 以下、本発明の一実施例における位置合わせ装置につい
て図面を参照しながら説明する。
Embodiment Hereinafter, a positioning device according to an embodiment of the present invention will be described with reference to the drawings.

第1図は移動物体としての部品6の先端を対象物体とし
てのワーク7の六8に位置合わせする作業を行う位置合
わせ装置を示す。第1図において、移動機構としてのロ
ボット1は、電動モータにより駆動されるボールネジに
よって先端の把持装置4を前後・左右・上下に動作する
。把持装置4は部品6を把持する。また、第1と第2の
2つの光源2a、2bとカメラ3とは、互いに対向又は
直交するように把持装置4に取付けられ、ロボット1の
動作により把持装置4とともに移動する。
FIG. 1 shows a positioning device for positioning the tip of a component 6 as a moving object with a 68 of a workpiece 7 as a target object. In FIG. 1, a robot 1 serving as a moving mechanism moves a gripping device 4 at its tip forward and backward, left and right, and up and down by a ball screw driven by an electric motor. The gripping device 4 grips the component 6. Further, the first and second light sources 2a and 2b and the camera 3 are attached to the gripping device 4 so as to face each other or orthogonally to each other, and move together with the gripping device 4 by the operation of the robot 1.

第1と第2の光源2a、2bが発する光は直進性のある
レーザ光であり、方形の面パターンを投光する。カメラ
3のレンズには、レーザ光の波長帯を透過させるフィル
タを取付け、投光されたパターンと陰による形状が受光
されるようになっている。ロボット1、第1と第2の光
源2a、2b、カメラ3の制御信号線はそれぞれコント
ローラ5に接続され、コントローラ5の入出力により制
御される。
The light emitted by the first and second light sources 2a and 2b is laser light that travels in a straight line, and projects a rectangular surface pattern. The lens of the camera 3 is equipped with a filter that transmits the wavelength band of the laser beam, so that the pattern of the projected light and the shape of the shadow are received. The control signal lines of the robot 1, the first and second light sources 2a and 2b, and the camera 3 are connected to a controller 5, respectively, and are controlled by input and output of the controller 5.

第2図はコントローラ5の構成を示すブロック図であり
、コントローラ5は中央制御部11、移動機構制御部1
2、画像処理部13から構成され、それぞれマイクロコ
ンピュータとメモリと110を内蔵し、システムハス1
4を介して通信を行う。中央制御部11は、メモリに内
蔵されたプログラムに従って、移動機構制御部12に対
する動作指令や画像処理部13に対する画像処理指令を
送る。
FIG. 2 is a block diagram showing the configuration of the controller 5, which includes a central control section 11, a moving mechanism control section 1, and a moving mechanism control section 1.
2, consists of an image processing unit 13, each of which has a built-in microcomputer, memory, and 110, and a system
Communication is carried out via 4. The central control section 11 sends operation commands to the moving mechanism control section 12 and image processing commands to the image processing section 13 according to a program stored in the memory.

移動機構制御部12は、中央制御部11がらの指令に従
って、ロボット1の電動モータの制御を行う。
The movement mechanism control section 12 controls the electric motor of the robot 1 according to instructions from the central control section 11 .

画像処理部13は、中央制御部11からの指令に従って
、カメラ3が受光したレーザ光のパターンから六8によ
る陰の位置と、光源2aがら投光された光が部品6によ
り遮られてワーク7上に生成される部品6の先端の陰9
(第4図参照)の位置と、光源2bから投光された光が
部品6により遮られてワーク7上に生成される部品6の
先端の陰10(第5図又は第6図参照)の位置をテンプ
レートマツチングにより認識し、求められた認識位置デ
ータを中央制御部11に送る。認識処理に使用するテン
プレートとして、第3図(a)、(b)、(C)、(d
)のテンプレートが画像処理部13のメモリに予め記憶
されている。
In accordance with the command from the central control unit 11, the image processing unit 13 determines the position of the shadow by 68 based on the pattern of the laser light received by the camera 3, and the workpiece 7 where the light emitted from the light source 2a is blocked by the component 6. Shadow 9 of the tip of part 6 generated above
(see Fig. 4) and the position of the shadow 10 (see Fig. 5 or 6) at the tip of the part 6 that is generated on the workpiece 7 when the light emitted from the light source 2b is blocked by the part 6. The position is recognized by template matching, and the obtained recognized position data is sent to the central control unit 11. The templates used in the recognition process are shown in Figures 3(a), (b), (C), and (d).
) is stored in advance in the memory of the image processing section 13.

次に、中央制御部11の制御動作を説明するのに先立っ
て、部品6の先端とワーク7の六8の相対位置関係を求
める方法について第1図と、第5図、第6図を参照して
説明する。
Next, before explaining the control operation of the central control unit 11, please refer to FIG. 1, FIG. 5, and FIG. and explain.

光源2aから投光された光は一部部品6の先端に当たり
、ワーク7の六8の周辺にパターンを生成する。これを
カメラ3で入力する。この光源2aから投光された光が
一部部品6の先端に当たりワーク7の穴8の周辺に生成
するパターンは、第4図に示すように、ワーク7の六8
による陰と部品4の先端の陰9を有する。さらに異なる
角度から光源2bにて投光された光により部品6の先端
の陰10を有する向きの異なる同様のパターンが生成さ
れる。これらをカメラ3で画像入力すると、第5図fc
)や第6図(C)のようなパターンが得られる。第5図
は光源2a、2bを対向して配置した場合の画像パター
ンの説明図であり、第6図は光源2a、2bを直交させ
て配置した場合の画像パターンの説明図である。
The light emitted from the light source 2a partially hits the tip of the part 6 and creates a pattern around the 68 of the workpiece 7. Input this using camera 3. As shown in FIG.
and a shadow 9 at the tip of the component 4. Further, similar patterns with different directions including the shadow 10 at the tip of the component 6 are generated by light projected by the light source 2b from different angles. When these images are input using camera 3, Fig. 5 fc
) and patterns such as those shown in FIG. 6(C) are obtained. FIG. 5 is an explanatory diagram of an image pattern when the light sources 2a and 2b are disposed facing each other, and FIG. 6 is an explanatory diagram of an image pattern when the light sources 2a and 2b are disposed orthogonally.

2つの光源2a、2bの投光方向がツー9フ0反射面に
対して成す角度に応じて、陰9の先端位置と陰10の先
端を結ぶ線分の内分点から前記線分に垂直な方向に前記
線分の長さに比例した距離の位置の上方に部品6の先端
が存在する。また、部品6の先端のワーク7からのから
の高さは前記線分の長さに比例した大きさとして求める
ことができる。これら部品6の先端位置と穴8のパター
ンの位置から、六8の位置と部品6の先端位置の相対位
置関係を三次元的に求めることが可能となっている。
Depending on the angle that the light projection directions of the two light sources 2a and 2b make with respect to the reflecting surface, the direction is perpendicular to the line segment from the internal dividing point of the line segment connecting the tip position of the shade 9 and the tip of the shade 10. The tip of the component 6 exists above a position at a distance proportional to the length of the line segment in the direction. Further, the height of the tip of the component 6 from the workpiece 7 can be determined as a size proportional to the length of the line segment. From the position of the tip of these parts 6 and the position of the hole 8 pattern, it is possible to three-dimensionally determine the relative positional relationship between the position of the 68 and the position of the tip of the part 6.

対象物体であるツー9フ0反射面に射影した平面におい
て、2つの光源2a、2bの投光方向が対向するように
2つの光’1Q2a、2bとカメラ3を配置した場合に
は、部品6の先端位置の穴8の位置に対する相対位置を
求める計算は次のようになる。
When two lights '1Q2a and 2b and the camera 3 are arranged so that the projection directions of the two light sources 2a and 2b are opposite on the plane projected onto the reflective surface of the target object, the part 6 The calculation for determining the relative position of the tip of the hole 8 with respect to the position of the hole 8 is as follows.

穴8に対する部品6の先端の画像座標系における変位を
(dx、dy、dz)、穴8の形状パターンの中心、部
品先端の陰9、部品先端の陰10の画像座標系での座標
をそれぞれ(x8.y8)、(χ9.y9)、(x 1
0.  y 10)とすると、dx= (x9+xlo
)/2−x8 d y= (y 9+ylO) /2−y 8d z−
(x9−xlo) /2 但し、この計算が成立するのは光源2の投光方向と反射
面の成す角度及びカメラ3の受光方向と反射面の成す角
度がそれぞれ丁度45°である場合である。
The displacement of the tip of the component 6 with respect to the hole 8 in the image coordinate system is (dx, dy, dz), and the coordinates of the center of the shape pattern of the hole 8, the shadow 9 of the component tip, and the shadow 10 of the component tip in the image coordinate system are respectively (x8.y8), (χ9.y9), (x 1
0. y 10), dx= (x9+xlo
)/2-x8 d y= (y 9+ylO) /2-y 8d z-
(x9-xlo) /2 However, this calculation is valid only when the angle between the light emitting direction of light source 2 and the reflective surface and the angle between the light receiving direction of camera 3 and the reflective surface are each exactly 45 degrees. .

又、対象物体であるワーク7の反射面に射影した平面に
おいて、2つの光源2a、2bの投光方向が丁度直交す
るように光源2a、2bとカメラ3を配置した場合、部
品6の先端位置の六8の位置に対する相対位置を求める
計算は次のようになる。
In addition, if the light sources 2a and 2b and the camera 3 are arranged so that the light projection directions of the two light sources 2a and 2b are exactly orthogonal to each other on the plane projected onto the reflective surface of the workpiece 7, which is the target object, the tip position of the component 6 The calculation to find the relative position to the position of 68 is as follows.

dχ=χ9−x8 dy=ylOy8 dz= ((x9−xlO) +(y9  ylo) 
)/2但し、この計算が成立するのも光源2a、2bの
投光方向と反射面の成す角度及びカメラ3の受光方向と
反射面の成す角度がそれぞれ丁度45゜である場合であ
る。
dχ=χ9-x8 dy=ylOy8 dz= ((x9-xlO) +(y9 ylo)
)/2 However, this calculation is valid only when the angle between the light emitting direction of the light sources 2a and 2b and the reflecting surface and the angle between the light receiving direction of the camera 3 and the reflecting surface are each exactly 45 degrees.

次に、以上の部品6の先端とワーク7の六8の相対位置
関係を求めるための中央制御部11の制御動作を第7図
により説明する。
Next, the control operation of the central control section 11 for determining the relative positional relationship between the tip of the component 6 and the 68 of the workpiece 7 will be explained with reference to FIG.

中央制御部11は、画像処理部■3に認識指令を送り、
画像処理部13から六8の形状パターンの位置、部品6
の先端の陰9.10の位置の画面座標値を受けて、部品
6の先端と六8の相対位置関係を求め、これをもとに部
品6の先端が穴8の位置に移動するようにロボット1の
動作量を計算し、移動機構制御部12に動作指令を送る
The central control unit 11 sends a recognition command to the image processing unit 3,
Position of shape pattern from image processing unit 13 to 68, part 6
Shadow of the tip of 9. Receiving the screen coordinate value of the position of 10, find the relative positional relationship between the tip of component 6 and 68, and based on this, move the tip of component 6 to the position of hole 8. The motion amount of the robot 1 is calculated and a motion command is sent to the moving mechanism control section 12.

移動物体としての部品6の先端と対象物体としてのワー
ク7の穴8の相対位置関係は、2つの光源2a、2bを
対向配置した場合、及び2つの光源2a、2bを直交に
配置した場合、それぞれ上記のように説明した手順で計
算されて、(d x。
The relative positional relationship between the tip of the component 6 as a moving object and the hole 8 of the workpiece 7 as a target object is as follows: when the two light sources 2a and 2b are arranged facing each other, and when the two light sources 2a and 2b are arranged orthogonally, Each is calculated according to the procedure explained above, and (d x.

dy、dz)が画像座標系での相対位置として求められ
、これをさらに次の計算により画像座標系から移動機構
としてのロボット1の座標系に変換して位置合わせのた
めのロボットの動作すべきベクトル(rx、ry、rz
)が求められる。
dy, dz) is determined as a relative position in the image coordinate system, and this is further converted from the image coordinate system to the coordinate system of the robot 1 as a moving mechanism by the following calculation, and the movement of the robot for alignment is determined. Vector (rx, ry, rz
) is required.

(rx、ry、rz)= (dx、dy、dz)T但し
、Tは(3X3)座標変換行列である。
(rx, ry, rz) = (dx, dy, dz)T where T is a (3X3) coordinate transformation matrix.

本実施例において、移動物体としての部品6をネジ締め
ドライバに保持されたネジとし、対象物体としてのワー
ク7の六8をネジ穴とすれば、本発明の位置合わせ装置
をネジ締めロボットに適用することができる。
In this embodiment, if the component 6 as a moving object is a screw held by a screw driver, and the target object 68 of the workpiece 7 is a screw hole, the positioning device of the present invention can be applied to a screw tightening robot. can do.

また本実施例において、ロボット1に把持された部品6
を挿入部品とし、対象物体としてのワーク7の六8を挿
入穴とすれば、部品挿入ロボット二適用することができ
る。
In addition, in this embodiment, the part 6 held by the robot 1
If 68 of the workpiece 7 as a target object is an insertion hole, the part insertion robot 2 can be applied.

又、本実施例において、部品6を装着部品とし、ワーク
7を装着対象基板とすれば、部品装着ロボットに適用す
ることができる。
Furthermore, in this embodiment, if the component 6 is used as a mounting component and the workpiece 7 is used as a mounting target board, the present invention can be applied to a component mounting robot.

さらに、移動物体をプローブとし、対象物体の所定位置
を端子とすれば、プローブと端子を位置決めする検査装
置に通用することができる。
Furthermore, if the moving object is a probe and a predetermined position of the target object is a terminal, the present invention can be used as an inspection device that positions the probe and the terminal.

発明の効果 以上のように、本発明の位置合わせ装置によれば、光源
から投光される光の反射光をカメラがとらえる範囲内に
対象物体及び移動物体が入るように、移動物体および光
源とカメラが移動するように教示設定するだけで、光源
、カメラの精密な配置調整を要することなく、教示精度
とは無関係に位置検出精度と移動機構の位置決め精度で
移動物体と対象物体の位置合わせを行うことができる。
Effects of the Invention As described above, according to the positioning device of the present invention, the moving object and the light source are aligned so that the target object and the moving object are within the range where the camera captures the reflected light of the light projected from the light source. By simply setting the teaching setting for the camera to move, the moving object and the target object can be aligned with the position detection accuracy and the positioning accuracy of the moving mechanism, regardless of the teaching accuracy, without requiring precise arrangement adjustment of the light source or camera. It can be carried out.

従って、位置合わせの精度で移動機構の動作位置教示を
行う必要がなくなり、教示の労力も大幅に軽減される。
Therefore, it is no longer necessary to teach the operating position of the moving mechanism with positioning accuracy, and the labor required for teaching is greatly reduced.

また、視覚は同一人力画像から移動物体と対象物体の位
置を同時に求めることができるために移動機構の動作へ
の視覚フィードバンク処理を短時間で行うことができる
等の効果が得られる。
In addition, since visual perception can determine the positions of the moving object and the target object simultaneously from the same human-powered image, it is possible to achieve effects such as visual feedback processing for the operation of the moving mechanism can be performed in a short time.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例における位置合わせ装置の概
略構成を示す斜視図、第2図はコントローラの構成を示
すプロ、り図、第3図(a)〜(d)は画像処理に用い
るテンプレートを示す図、第4図(a)、(b)は第1
の光源から対象物体上への投光状態と生成されるパター
ンの説明図、第5図(a)、(b)、(C)は第1の光
源に対して第2の光源を対向配置した場合の第1の光源
のみによるパターンと第2の光源の投光状態と第1と第
2の光源による投光状態におけるパターンの説明図、第
6図は(a)、(b)、(C)は第1の光源に対して第
2光源を直交配置した場合の第2の光源のみによるパタ
ーンと第2の光源の投光状態と第1と第2の光源による
投光a′態におけるパターンの説明図、第7図は位置合
わせ動作のための制御装置のフローチャートである。 1−・−・・−・・−−−−−−−−−一ロボット(移
動機構)2a−m−−一一第1の光源 2 b −−−−−−−第2の光源 3−−−−−−一カメラ 5、、− 、、、、、、、、、、、、 −コンl−ロー
ラ6−−−−一部品(移動物体) 7−−−−−−−−−ワーク(対象物体)8−−−一・
−−−・−・−穴(対象物体の所定位置)9−一−〜−
−一一−・一部品先端の陰10−−−−−一部品先端の
陰 11−−一一−−−−中央制御部 12−−−−−− ・−移動機構制御部13−〜−・−
−−−画像処理部。
Fig. 1 is a perspective view showing a schematic configuration of a positioning device according to an embodiment of the present invention, Fig. 2 is a perspective view showing the configuration of a controller, and Figs. Figures 4(a) and 4(b) show the templates used.
Figures 5 (a), (b), and (C) are explanatory diagrams of the state of light projection onto the target object from the light source and the patterns generated. Fig. 6 is an explanatory diagram of a pattern caused by only the first light source, a light projection state of the second light source, and a pattern in the light projection state of the first and second light sources in the case of the present invention. ) is a pattern created only by the second light source when the second light source is arranged perpendicular to the first light source, the light projection state of the second light source, and the pattern in the light projection a′ state by the first and second light sources. FIG. 7 is a flowchart of the control device for positioning operation. 1--・--・--・・-------1 robot (moving mechanism) 2a-m--11 first light source 2b--Second light source 3- -------One camera 5, -,,,,,,,,,,,,, -Controller 6--One part (moving object) 7--------Work (Target object) 8---1.
−−・−・−Hole (predetermined position of target object) 9−1−~−
-11--Shade 10 at the tip of one component----Shade 11 at the tip of one component--11---Central control section 12--Moving mechanism control section 13--・−
---Image processing section.

Claims (1)

【特許請求の範囲】[Claims] (1)移動機構により移動する移動物体を対象物体の所
定位置に位置合わせする位置合わせ装置であって、移動
物体から対象物体に降ろした垂線に平行でない2つの異
なる方向から移動物体及び対象物体に投光する2つの光
源と、光源の投光方向とは異なる角度で対象物体上の投
光パターンの反射光を受光するカメラと、カメラで受光
した入力画像から移動物体と対象物体の相対位置関係を
求める画像処理手段と、相対位置関係から移動物体の移
動方向と移動量を決定し移動機構を移動制御する制御手
段とを備え、画像処理手段は、対象物体の形状から生成
される陰と、2つの光源から投光された光が移動物体に
遮られて生成される2つの陰とを認識して得られる位置
情報をもとに移動物体と対象物体の相対位置関係を求め
るように構成したことを特徴とする位置合わせ装置。
(1) A positioning device that aligns a moving object that is moved by a moving mechanism to a predetermined position on the target object, the device aligning the moving object and the target object from two different directions that are not parallel to the perpendicular line drawn from the moving object to the target object. Two light sources that emit light, a camera that receives the reflected light of the light projection pattern on the target object at an angle different from the direction in which the light sources emit light, and the relative positional relationship between the moving object and the target object based on the input image received by the camera. and a control means for determining the moving direction and amount of movement of the moving object from the relative positional relationship and controlling the movement of the moving mechanism. The system is configured to determine the relative positional relationship between the moving object and the target object based on positional information obtained by recognizing two shadows generated when the light projected from the two light sources is blocked by the moving object. A positioning device characterized by:
JP33589690A 1990-11-29 1990-11-29 Position alignment apparatus Pending JPH04203909A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33589690A JPH04203909A (en) 1990-11-29 1990-11-29 Position alignment apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33589690A JPH04203909A (en) 1990-11-29 1990-11-29 Position alignment apparatus

Publications (1)

Publication Number Publication Date
JPH04203909A true JPH04203909A (en) 1992-07-24

Family

ID=18293585

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33589690A Pending JPH04203909A (en) 1990-11-29 1990-11-29 Position alignment apparatus

Country Status (1)

Country Link
JP (1) JPH04203909A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016125908A (en) * 2015-01-05 2016-07-11 株式会社島津製作所 Automatic sampling device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016125908A (en) * 2015-01-05 2016-07-11 株式会社島津製作所 Automatic sampling device

Similar Documents

Publication Publication Date Title
US11911914B2 (en) System and method for automatic hand-eye calibration of vision system for robot motion
US6763284B2 (en) Robot teaching apparatus
US8742290B2 (en) Robot system
US8965556B2 (en) Robot system
US11376734B2 (en) Trajectory control device
JPH041505A (en) Three-dimensional position measuring method and acquiring method for work
JPH04203909A (en) Position alignment apparatus
TWM600667U (en) Laser marking system
JPH06187021A (en) Coordinate correcting method for robot with visual sense
CN113165188A (en) Aligning device
JP2707548B2 (en) Coordinate correction method for visual recognition device
JPH1133962A (en) Calibration of three-dimensional position sensor for robot
JPH03213244A (en) Positioning device for flat plate workpiece work machine
JPH04148205A (en) Positioning device
KR100194216B1 (en) Position Correction Device and Method of Mobile Robot Using Vision System
JPH08328624A (en) Method for coupling sensor and robot and robot system
JPH0545117A (en) Optical method for measuring three-dimensional position
JPH04201021A (en) Positioning device
JP2654899B2 (en) Teaching device for operation type manipulator and automatic operation method using operation type manipulator
US11826919B2 (en) Work coordinate generation device
JP2782959B2 (en) Automatic mounting device with visual function
JP2915979B2 (en) Position and rotation angle detecting device, pointing device thereof, and robot operation teaching device using the same
US20230129918A1 (en) Robot system
TWI730664B (en) Laser marking system and controlling method thereof
JPS63157779A (en) Laser beam machine equipped with optical type distance sensor