JPS63109923A - Component position correction recognition mechanism - Google Patents

Component position correction recognition mechanism

Info

Publication number
JPS63109923A
JPS63109923A JP61255715A JP25571586A JPS63109923A JP S63109923 A JPS63109923 A JP S63109923A JP 61255715 A JP61255715 A JP 61255715A JP 25571586 A JP25571586 A JP 25571586A JP S63109923 A JPS63109923 A JP S63109923A
Authority
JP
Japan
Prior art keywords
component
image
robot
parts
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61255715A
Other languages
Japanese (ja)
Inventor
Toshihide Maeda
利秀 前田
Nobuyuki Nanri
南里 信之
Hideaki Sonoda
英明 園田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP61255715A priority Critical patent/JPS63109923A/en
Publication of JPS63109923A publication Critical patent/JPS63109923A/en
Pending legal-status Critical Current

Links

Landscapes

  • Automatic Assembly (AREA)
  • Supply And Installment Of Electrical Components (AREA)

Abstract

PURPOSE:To enable the slip of a component position before and after a pick-up to be detected by fitting a reflecting plate to a robot arm and putting illumination at the perimeter of a component which is on a level with the height of a component before the pick-up. CONSTITUTION:When a picker-head 7 is being moved by a robot 1 in the moving directions of X axis and Y axis, the next component 8 contained in a transparent acrylic resin pallet 3 is illuminated by the upper part illumination 4, and the shadow image of the component 8 is inputted by an ITV camera 9 from the lower part. The image inputted is processed by an image processing device 10. After the component 8 having been sucked, and when a suction-pad shaft 5 has risen slightly, the light from the lower part illumination 6 hits the lower surface of a reflecting plate 2, and the shadow of the component 8 gets to stand out on account of its reflecting light being irradiated to the component 8 whose position has changed. This shadow image is inputted by the ITV camera 9 from the lower part, and the body center position and directional angle of the component are detected again by the image processing device 10.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、部品位置補正認識機構及びその方式に係り、
特に、多形状、多品種のバラの電子部品の位置補正認識
をするのに好適な部品位置補正認識機構に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a component position correction recognition mechanism and its method,
In particular, the present invention relates to a component position correction recognition mechanism suitable for position correction recognition of electronic components of various shapes and types.

〔従来の技術〕[Conventional technology]

雑誌オートメーション(1984第29巻、第1号日刊
工業新聞社)P53に記載されている公知例によると、
ワークAをワークBに挿入する工程で。
According to a known example described in the magazine Automation (1984 Vol. 29, No. 1 Nikkan Kogyo Shimbunsha) P53,
In the process of inserting workpiece A into workpiece B.

ロボットがワークAをチャッキングした時に姿勢不良を
起こしているかどうかをオプトチェッカーで確認して、
姿勢不良の場合、そのワークを捨てて次のワークを取る
ようにしている。また、オートメーション(1984第
29巻、第8号日刊工業新聞社)P54〜55の公知例
によると、ボウルフィーダの中のワークを定位置で投影
レンズによって投項影し、そのピント面に光電索子を置
いて姿勢を検知し、希望のものがきたときにピックアン
ドプレイス、ユニットでワークをつかみ出す方式となっ
ている。この方式では、ワークをつかんだ時の姿勢補正
機構がない。
When the robot chucks workpiece A, we use an optochecker to check whether it has a bad posture.
If my posture is bad, I throw away the work and move on to the next one. In addition, according to a known example in Automation (1984 Vol. 29, No. 8 Nikkan Kogyo Shimbunsha) P54-55, a workpiece in a bowl feeder is projected at a fixed position by a projection lens, and a photoelectric cable is placed on the focal plane. The system detects the posture of a child, and when the desired item arrives, it uses a pick-and-place method and the unit grabs the workpiece. This method does not have a posture correction mechanism when gripping the workpiece.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

雑誌オートメーション(1984第29巻、第1号)P
53公知例の方式では、姿勢不良を起こしたワ−クは、
それを捨てるので稼動率が低下する。また、同一形状の
部品しか、部品姿勢を確認できず、多形状の部品が入っ
ていた場合などは対応できない、また、3次元的に部品
を見ているので、左右方向の姿勢不良は検出するが、前
後方向は、部品が黒い物体であったときなど、誤検出し
てしまうことがある。また、この方式では、部品をチャ
ッキングした時、チャッキングされた部品の頭の部分の
姿勢は、ロボットの爪にかくされて見えない場合があり
これも誤検出することがある0以上のような問題点が従
来技術ではあった。
Magazine Automation (1984 Vol. 29, No. 1) P
53 In the method of the known example, the workpiece that has caused poor posture is
Since it is thrown away, the operating rate decreases. In addition, the part orientation can only be confirmed for parts with the same shape, and cannot be handled when there are multi-shaped parts.Also, since the parts are viewed three-dimensionally, it is possible to detect poor posture in the left and right direction. However, in the front-back direction, incorrect detection may occur, such as when the part is a black object. In addition, with this method, when parts are chucked, the posture of the head of the chucked part may be hidden by the robot's claws and cannot be seen, which may cause false detection. There were some problems with the conventional technology.

本発明の目的は、上記の問題点を解決すべく(1)部品
の位置が変化しても、その位置を認識し部品を捨てなく
てもよいので稼動率は100%であり、(2)多形状、
多品種の部品(2リ一ド電子部品では700種以上)の
位置確認ができ、(3)2次元的な平面で部品画像を捕
えるので前後左右方向に位置がズしても検出可能で、(
4)ロボットのアームには反射板(白色)を取付けであ
るので、部品ビックアクア後の部品画像全体を抽出する
ことができ、正確に部品の位置を検出することが可能な
部品位置補正認識機構及びその方式を提供することにあ
る。
The purpose of the present invention is to solve the above-mentioned problems (1) Even if the position of a part changes, there is no need to recognize the position and discard the part, so the operation rate is 100%, and (2) multi-shape,
It is possible to confirm the position of a wide variety of parts (more than 700 types of 2-lead electronic parts), and (3) it captures part images on a two-dimensional plane, so it can be detected even if the position shifts in the front, back, left, and right directions. (
4) Since a reflector (white) is attached to the robot arm, it is possible to extract the entire part image after the part big aqua, and there is a part position correction recognition mechanism that can accurately detect the part position. and its method.

〔問題点を解決するための手段〕[Means for solving problems]

上記目的は1部品をピックアップしたときにピックアッ
プする前と同じ画像取込み状態を設定するために、ロボ
ットアーム部に白い反射板を取りつけ、ロボットアーム
が部品をとるため下がって部品をつかんで持ち上げたと
きに1部品取出しパレットの周囲の照明光が、その反射
板に斜め上向用することにより1部品の陰影画像を浮き
出させることによって、達成される。
The above purpose is to set up the same image capture state as before picking up a part when picking up a part, by attaching a white reflector to the robot arm, and when the robot arm goes down to pick up the part, grabs the part, and lifts it up. This is achieved by directing illumination light around the one-component pick-up pallet diagonally upward onto the reflector, thereby making the shadow image of one component stand out.

また1部品ピックアップ時の背景及び部品からなる原画
像には、部品周囲にノイズが発生する場合があり、これ
は、部品をピックアップする前の部品の2値画像を膨張
させてマスクパターン画像を作成しておき1部品ピック
アップ後の原画像に、このマスクパターン画像をマスク
する画像間演算を行うことによって1部品周囲のノイズ
を除去し、部品画像のみを抽出することにより、本目的
は達成される。
In addition, noise may occur around the part in the original image consisting of the background and parts when picking up a single part.This is because the mask pattern image is created by expanding the binary image of the part before picking up the part. This objective is achieved by performing inter-image calculation to mask this mask pattern image on the original image after picking up one component, thereby removing noise around one component and extracting only the component image. .

〔作用〕[Effect]

部品をピックアップする前は1部品の上部から照らされ
た照明光により部品の位置認識が行われる0次に、その
位置情報をもとに部品ピッカーロボットが移動してきて
そのロボットアームで部品をピックアップし上昇する。
Before picking up a part, the position of the part is recognized by illumination light illuminated from above the part.Next, the parts picker robot moves based on the position information and picks up the part with its robot arm. Rise.

この時、ロボットアームに取付けられた反射板と部品を
ピックアップする前の部品周囲に置かれた照明とから、
部品全体の画像を浮き出させることができる。ロボット
アームが部品をピックアップし上昇したとき、部品ピッ
クアップ前の部品周囲の照明光がロボットアームに取付
けである反射板の下面に反射し、その光が反射板で屈折
されて、部品全体に照射され、部品の陰影が発生する。
At this time, from the reflector attached to the robot arm and the lighting placed around the parts before picking them up,
The image of the entire part can be highlighted. When the robot arm picks up a part and ascends, the illumination light around the part before picking up the part is reflected on the bottom surface of a reflector attached to the robot arm, and the light is refracted by the reflector and illuminates the entire part. , shading of parts occurs.

それをカメラで捕えれば、部品0陰影画像として画像が
析可能となる。
If this is captured with a camera, the image can be analyzed as a part 0 shadow image.

また1部品ピックアップ時の背景(ノイズ含む)及び部
品からなる原画像から部品画像のみを抽出する0部品を
ピックアップする前の部品位置認識時の部品の2値画像
を膨張させて、部品形状がそのまま膨張したマスクパタ
ーン画像を部品ピックアップ後の部品位置が変化したそ
の部品画像と部品周囲のノイズを含む背景画像とからな
る原画像に、マスクするという画像間演算を行うことに
より、マスクパターンの内部の画像のみ抽出され。
In addition, only the component image is extracted from the original image consisting of the background (including noise) and components when picking up one component.The binary image of the component during component position recognition before picking up 0 components is expanded, so that the component shape remains as it is. By performing an inter-image operation of masking the expanded mask pattern image with the original image consisting of the part image whose position has changed after picking up the part, and the background image containing noise around the part, the inside of the mask pattern can be Only images are extracted.

マスクパターン外の画像は完全に消されてしまう。Images outside the mask pattern are completely erased.

この作mを利用し1部品の位置が変化した時の部品画像
を周囲のノイズを除去し抽出することができる。
By using this method, it is possible to extract a part image when the position of one part changes while removing surrounding noise.

〔実施例〕〔Example〕

本発明の部品位置認識時m機構とその方式を用いた電子
部品組込装置の例を第4図により説明する。
An example of the component position recognition time mechanism of the present invention and an electronic component assembly apparatus using the method will be explained with reference to FIG.

部品供給装置25より搬出された部品は、ベルトコンベ
アで運ばれ、透明の部品供給パレットの中に入れられる
。そこで上部照明4により光をもらい、部品の位置認識
を行い、ピッカーヘッド7により部品を吸着する。吸着
された部品は再度部品の位置認識を行い、位置ズレ検出
後XYロボット1により部品組込機本体へ、リード付根
位置情報1部品ボディ中心位置情報に従い、搬送アーム
位置に送られる。そこで部品は、各種のフォーミングが
行われ、搬送コンベア26で搬送され、定数極性チェッ
ク(一部、方向反転)後、リードカットされて、プリン
ト板搬送装置!128より供給されたプリント板に挿入
ヘッド27により挿入される。
The parts discharged from the parts supply device 25 are carried by a belt conveyor and placed into a transparent parts supply pallet. Then, light is received from the upper illumination 4 to recognize the position of the parts, and the picker head 7 picks up the parts. The position of the suctioned component is recognized again, and after positional deviation is detected, the XY robot 1 sends it to the main body of the component assembly machine and to the transfer arm position according to the lead root position information and the component body center position information. There, the parts undergo various forms, are transported by the transport conveyor 26, are checked for constant polarity (some direction is reversed), are lead cut, and are transferred to the printed board transport device! The insertion head 27 inserts the print board into the printed board supplied from the print board 128 .

この部品位置補正認識Ia祷の構成1部品位置補正認識
力式の原理及びロボット動作フローと画像処理フローを
、それぞれ第1図、第2図及び第3図で説明する。
The principle of the component position correction recognition force formula, the robot operation flow, and the image processing flow will be explained with reference to FIGS. 1, 2, and 3, respectively.

部品8をピックアップするピッカーヘッド7がXYロボ
ット1によりX軸移動方向■に及びY軸移動方向■13
の方向に移動しているときに、透明なアクリルパレット
3に入った次の部品8を上部照明4により照らし、部品
8の陰影画像を下部からITVカメラ9により入力する
。入力された画像は、画像処理装置10により処理され
1部品のボディ中心位置と方向角のデータをXYロボッ
ト1ヘデータ出カケ−プル11を介し送る。XYロボッ
ト1は、その位置、方向データをもとに。
The picker head 7 that picks up the part 8 is moved by the XY robot 1 in the X-axis movement direction ■ and the Y-axis movement direction ■13
While moving in the direction, the next part 8 placed on the transparent acrylic pallet 3 is illuminated by the upper illumination 4, and a shadow image of the part 8 is input from the bottom by the ITV camera 9. The input image is processed by the image processing device 10 and data on the body center position and direction angle of one part is sent to the XY robot 1 via the data output cable 11. XY robot 1 is based on its position and direction data.

Y軸移動方向017及びX軸移動方向016の方向に移
動し、ピッカーヘッド7の吸着パッド軸5が下がり部品
8を吸着する。この後、吸着パッド軸5が少し上昇した
ところで、下部照明6の光が反射板2の下面に当り、そ
の反射光が位置が変化した部品8に照射されることによ
り部品8の陰影が浮き出てくる。この陰影画像を下部か
らITVカメラ9により入力し、画像処理袋f!10に
より再度、部品のボディ中心位置と方向角を検出する0
画像処理装置10は1部品吸着前の位置情報と吸着後の
位置情報とから部品の位置ズレ量を計訂し、その補正量
を加味したロボット移動量データをデータ出カケープル
11を介しXYロボット1に送る。xYロボット1は、
計算機からの指令に従ってX軸移動方向012及びY軸
移動方向■13の方向に移動し、ピッカーヘッド7の吸
着バッド軸5を90℃回転方向14の方向に回転させて
1部品受渡し方向15の方向に部品8を受渡す、これに
よって1部品組込機側に部品が渡されたことに なる。以下、以上述べたサイクル動作を繰り返す。
It moves in the Y-axis movement direction 017 and the X-axis movement direction 016, and the suction pad shaft 5 of the picker head 7 lowers to suction the component 8. After that, when the suction pad shaft 5 rises a little, the light from the lower illumination 6 hits the lower surface of the reflector plate 2, and the reflected light is irradiated onto the component 8 whose position has changed, making the shadow of the component 8 stand out. come. This shadow image is inputted from the bottom by the ITV camera 9, and the image processing bag f! 10 detects the body center position and direction angle of the part again.
The image processing device 10 calculates the amount of positional deviation of the component from the position information before picking up the part and the position information after picking up the part, and sends robot movement amount data that takes into account the correction amount to the XY robot 1 via the data output cable 11. send to xY robot 1 is
According to the instructions from the computer, it moves in the X-axis movement direction 012 and Y-axis movement direction 13, rotates the suction pad shaft 5 of the picker head 7 by 90 degrees in the rotation direction 14, and 1 part transfer direction 15. The part 8 is delivered to the part 8. This means that the part has been delivered to the 1 part assembling machine. Thereafter, the cycle operation described above is repeated.

第2図に1部品位置補正認識力式の原理を示す。Figure 2 shows the principle of the one-component position correction recognition force formula.

部品ピッキング前処理において、ITVカメラで捕えた
部品濃淡の画像18を2値化し1部品2値■画像19を
得る。この2値画像に膨張処理をほどこし1部品形状を
そのまま膨張させたマスクパターン画像20を画像メモ
リに記憶させておく。
In the parts picking pre-processing, the component shading image 18 captured by the ITV camera is binarized to obtain a one-component binary image 19. This binary image is subjected to dilation processing, and a mask pattern image 20 in which the shape of one part is dilated as it is is stored in an image memory.

ピッキング前処理では′、部品2値■画像19より画像
を解析して1部品の位置を検出する。
In the picking preprocessing, the image is analyzed from the part binary image 19 to detect the position of one part.

次に1部品ピッキング後処理において1部品をピックア
ップ後の吸着パッド軸に取付けられた反射板により下部
照明を反射させて部品の陰影を浮き出させた部品陰影画
像及びその周囲のノイズを含む背景画像とからなる原画
像をITVカメラで捕えた画像を1部品濃淡■画像21
及びノイズ画像24とする。この21及び24から成る
原画像に、部品ピッキング前処理において画像メモリに
格納しておいた部品形状をそのまま膨張させたマスクパ
ターン画像20をマスクするという画像間演算を行うこ
とによりノイズ画像24を除去し、部品のみの被マスク
濃淡画像22を抽出する。この22の画像を2値化し、
部品2値の画像23を得、この2値画像を画像解析する
ことにより部品ピッキング後に変化した位置を検出する
ことができる。
Next, in the post-processing of one part picking, after one part is picked up, a reflection plate attached to the suction pad shaft reflects the lower illumination to highlight the part shadow image, and a background image containing surrounding noise. Image 21 of the original image captured by the ITV camera.
and a noise image 24. The noise image 24 is removed by performing an inter-image operation of masking the original image consisting of 21 and 24 with a mask pattern image 20, which is an expanded version of the part shape stored in the image memory during parts picking preprocessing. Then, a masked gray image 22 of only the parts is extracted. Binarize these 22 images,
By obtaining a component binary image 23 and performing image analysis on this binary image, it is possible to detect a position that has changed after component picking.

第3図に1部品ピックアップロボットの動作フロー及び
画像処理フローを示す、まずロボット動作フローより説
明する。動作ブロックAで画像処理の上部照明を部品に
照射させるため、ロボットを部品上部から逃しておく、
ブロックBで、上部照明により画像処理を計算機に行わ
せる1次に。
FIG. 3 shows the operation flow and image processing flow of the one-component pickup robot. First, the robot operation flow will be explained. In motion block A, in order to irradiate the upper part of the image processing illumination onto the part, the robot is moved away from the upper part of the part.
Block B is the primary that causes the computer to perform image processing using upper illumination.

その画像解析結果(部品位置情報)をもとにロボットを
動かし1部品をピックアップさせる(ブロックC)0次
に、再度部品吸着時の部品位置ズレ量を検出するため、
ピッカーヘッドを少し上昇させ、部品nBに置いた照明
により画像処理させる(ブロックD)、ブロックBとD
の画像処理結果をもとに1部品の位置をズレ補正をして
ロボットを移動させ(ブロックE)、部品組込機へ部品
を渡す(ブロックF)、また、ブロックFにおいては、
部品を受渡している時、次の部品の画像処理(ブロック
B)が行われる。以下、C−F)149り返す。
Based on the image analysis results (part position information), move the robot to pick up one part (block C) Next, in order to detect the amount of part position deviation when picking up the parts again,
The picker head is raised a little and image processing is performed using the lighting placed on part nB (block D), blocks B and D
Based on the image processing results, the position of one part is corrected and the robot is moved (block E), and the part is delivered to the parts assembly machine (block F). Also, in block F,
While the parts are being delivered, image processing (block B) for the next part is performed. Hereinafter, repeat C-F) 149.

部品ピッキング前の画像処理では、まず部品の画像を入
力しくブロックG)、それを2値化(ブロックH)して
、その2値画像の膨張処理(ブロックエ)を行う0次に
、2値処理結果(ブロックH)をもとに、部品の位置を
解析する(ブロックJ)。
In image processing before parts picking, first input an image of the part (block G), binarize it (block H), and perform dilation processing (block E) on the binary image. Based on the processing result (block H), the position of the part is analyzed (block J).

部品ピッキング後の画像処理は、まず部品の画像を入力
しくブロックK)1次に、ブロックエで作成したマスク
パターン画像を使って、ブロックにでの原画像との間で
画像間演算を行う(ブロックL)0次に、ブロックLで
の処理結果を使って、部品原画像を2値化する(ブロッ
クM)、この2値画像をもとに1位置ズレを起こした部
品位置を解析する(ブロックN)。
Image processing after parts picking involves first inputting the image of the part (block K).Next, using the mask pattern image created in block E, perform inter-image calculations with the original image in block K). Block L) 0 Next, the processing result in block L is used to binarize the component original image (block M), and based on this binary image, the component position that has shifted by one position is analyzed ( block N).

〔発明の効果〕〔Effect of the invention〕

本発明の部品位置補正認識方式構及びその方式を用いる
ことによって、(1)部品チャッキング後の姿勢不良も
補正する機構があるので、従来の部品供給(受渡し)稼
動率90%を100%にできる。(2)従来の適用部品
は、同一形状の部品しか適用できないのに対し9本発明
においては、多形状、多品種の部品(2リ一ド電子部品
では700種以上)を適用可能である。(3)従来のチ
ャッキング後の姿勢検出では、左右方向の姿勢不良は検
出するが、前後方向の姿勢不良は検出率が悪く、また1
部品をチャックしている部分の姿勢はロボットアームの
爪で検出できない等の問題があったが1本発明では、部
品が前後左右方向に動いても確実に検出でき5部品全体
の姿勢を見ることができるので、検出率を100%とす
ることができ、また検出信頼性も高く99%以上である
By using the component position correction recognition system and its method of the present invention, (1) there is a mechanism for correcting poor posture after component chucking, so the operating rate of parts supply (handover) can be increased from 90% in the past to 100%; can. (2) While conventional applicable parts can only be applied to parts of the same shape, in the present invention, parts of many shapes and types (more than 700 types of 2-lead electronic parts) can be applied. (3) Conventional posture detection after chucking detects posture defects in the left and right directions, but the detection rate for posture defects in the front and back direction is low, and
There was a problem that the posture of the part that is chucking the part could not be detected by the claws of the robot arm, but with the present invention, even if the part moves in the front, back, left and right directions, it can be reliably detected and the posture of the whole part can be seen. Therefore, the detection rate can be 100%, and the detection reliability is also high, at 99% or more.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例の部品位に補正認識機構の植
成を示す斜視図、第2図は、部品位置補正認識方式の原
理を説明する平面図、第3図は、第1図のロボットの動
作及び第2図の画像処理法のフローの説明図、第4図は
、本発明を用いた電子部品組込装置の一例を示す斜視図
である。
FIG. 1 is a perspective view showing the implantation of a correction recognition mechanism in a component position according to an embodiment of the present invention, FIG. 2 is a plan view illustrating the principle of the component position correction recognition system, and FIG. FIG. 4 is an explanatory diagram of the operation of the robot shown in the figure and the flow of the image processing method shown in FIG. 2, and FIG. 4 is a perspective view showing an example of an electronic component assembly apparatus using the present invention.

Claims (1)

【特許請求の範囲】[Claims] 1、位置認識された部品をピックフップしたときの部品
の位置ズレ補正認識機構において、部品をピックアップ
するロボットアームに反射板を取付け、ピックアップさ
れる前の部品の高さと同一レベルの部品の周囲に照明を
置きその照明光が反射板により反射光となつてピックア
ップされた部品に当たることを利用し、部品の画像をカ
メラで捕え部品の変化した位置を認識することにより、
ピックアップする前の部品位置とのズレを検出可能にし
たことを特徴とする部品位置補正認識機構。
1. In the recognition mechanism that corrects the positional shift of the part when the part whose position has been recognized is picked up, a reflector is attached to the robot arm that picks up the part, and the area around the part at the same level as the part before being picked up is illuminated. By using the fact that the illumination light is reflected by a reflector plate and hits the picked-up component, and by capturing an image of the component with a camera and recognizing the changed position of the component,
A component position correction recognition mechanism that is capable of detecting a deviation from a component position before being picked up.
JP61255715A 1986-10-29 1986-10-29 Component position correction recognition mechanism Pending JPS63109923A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61255715A JPS63109923A (en) 1986-10-29 1986-10-29 Component position correction recognition mechanism

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61255715A JPS63109923A (en) 1986-10-29 1986-10-29 Component position correction recognition mechanism

Publications (1)

Publication Number Publication Date
JPS63109923A true JPS63109923A (en) 1988-05-14

Family

ID=17282638

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61255715A Pending JPS63109923A (en) 1986-10-29 1986-10-29 Component position correction recognition mechanism

Country Status (1)

Country Link
JP (1) JPS63109923A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261724A (en) * 1991-02-18 1992-09-17 Hitachi Ltd Automatic insertion machine for gear
JPH081450A (en) * 1994-06-14 1996-01-09 Tekuseru:Kk Positioning confirming device and assembling device using it
JP2007198903A (en) * 2006-01-26 2007-08-09 Seiko Epson Corp Position adjusting method and position adjusting apparatus for transfer equipment, and ic handler
JP2007313591A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Method, device, and system for transferring work
EP3117955A1 (en) * 2015-07-14 2017-01-18 Agie Charmilles New Technologies SA Machine tool with a pallet changer, pallet and pallet changer
JP2017019241A (en) * 2015-07-14 2017-01-26 ファナック株式会社 Injection molding system
CN108857315A (en) * 2018-07-23 2018-11-23 遂宁市盛川视觉科技有限公司 A kind of mobile lens automatic cover lens device
CN112404930A (en) * 2020-11-05 2021-02-26 苏州双荣橡塑有限公司 Post-processing treatment device for lighting product

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04261724A (en) * 1991-02-18 1992-09-17 Hitachi Ltd Automatic insertion machine for gear
JPH081450A (en) * 1994-06-14 1996-01-09 Tekuseru:Kk Positioning confirming device and assembling device using it
JP2007198903A (en) * 2006-01-26 2007-08-09 Seiko Epson Corp Position adjusting method and position adjusting apparatus for transfer equipment, and ic handler
JP2007313591A (en) * 2006-05-24 2007-12-06 Nissan Motor Co Ltd Method, device, and system for transferring work
EP3117955A1 (en) * 2015-07-14 2017-01-18 Agie Charmilles New Technologies SA Machine tool with a pallet changer, pallet and pallet changer
JP2017019241A (en) * 2015-07-14 2017-01-26 ファナック株式会社 Injection molding system
CN108857315A (en) * 2018-07-23 2018-11-23 遂宁市盛川视觉科技有限公司 A kind of mobile lens automatic cover lens device
CN108857315B (en) * 2018-07-23 2019-12-31 遂宁市维美电子科技有限公司 Automatic lens covering device for mobile phone lens
CN112404930A (en) * 2020-11-05 2021-02-26 苏州双荣橡塑有限公司 Post-processing treatment device for lighting product
CN112404930B (en) * 2020-11-05 2021-08-27 苏州双荣橡塑有限公司 Post-processing treatment device for lighting product

Similar Documents

Publication Publication Date Title
JP4896136B2 (en) Pick and place machine with improved component pick image processing
JPH0428518B2 (en)
JP2019192248A (en) System and method for stitching sequential images of object
CN106269548A (en) A kind of object automatic sorting method and device thereof
CN105690393A (en) Four-axle parallel robot sorting system based on machine vision and sorting method thereof
JPS63109923A (en) Component position correction recognition mechanism
JPH10123207A (en) Lsi handler
WO2018158888A1 (en) Backup-pin recognizing method and component mounting device
CN113758926A (en) Product assembling machine with vision inspection station
JP6612845B2 (en) Mounting apparatus, imaging processing method, and imaging unit
JPH06260798A (en) Part feeding apparatus
JP2896043B2 (en) Image recognition device and component supply device using the same
JP2008311430A (en) Semiconductor chip detection device, and semiconductor chip detection method using it
JP3755215B2 (en) Multi-layer laminate positioning device
JP4618203B2 (en) Electronic component mounting apparatus and electronic component mounting method
JPH0775035B2 (en) SMD polarity discrimination inspection device by image processing
JPH0290700A (en) Chip component mounting device
JP3644272B2 (en) Image recognition method
JPH01140633A (en) Chip position detecting equipment and chip feeding method in die-bonder
JPS63293403A (en) Recognizing device for chip component
JPH05136600A (en) Electronic component recognition device
JPS6245092A (en) Method and apparatus for recognizing position and attitude of part
JP3223603B2 (en) Electronic component mounting machine
JPH09238000A (en) Recognition method of electronic components and automatic mounting equipment of electronic components
JP2000164753A (en) Inspection apparatus for mounting