JPH07113612A - Component position recognition system - Google Patents

Component position recognition system

Info

Publication number
JPH07113612A
JPH07113612A JP5284323A JP28432393A JPH07113612A JP H07113612 A JPH07113612 A JP H07113612A JP 5284323 A JP5284323 A JP 5284323A JP 28432393 A JP28432393 A JP 28432393A JP H07113612 A JPH07113612 A JP H07113612A
Authority
JP
Japan
Prior art keywords
image
component
reduced
contour
creating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP5284323A
Other languages
Japanese (ja)
Other versions
JP3015641B2 (en
Inventor
Minoru Higashihara
稔 東原
Yoshinobu Nakamura
吉伸 中村
Shin Miyaji
伸 宮治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP5284323A priority Critical patent/JP3015641B2/en
Publication of JPH07113612A publication Critical patent/JPH07113612A/en
Application granted granted Critical
Publication of JP3015641B2 publication Critical patent/JP3015641B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To recognize component positions at a high speed by calculating the component positions on the basis of the reduced image which is comprised of the data that is sampled with specified pixels in between from a whole image stored in an image memory. CONSTITUTION:First, the gradation image of an objective component is picked up by a camera 5 and its image is stored as a pixel data array that the concentration (brightness) is digitalized, in an image memory 6. Next, the pixels which are picked up by skipping from the original image of the component every one to several pixels in between are arranged to prepare a reconstructed reduction image. Further, the center of gravity of the part and the tilt thereof against a coordinate axis are calculated on the basis of the reduction image. As a result, the reduction ratio for the image is calculated on the basis of the sampling interval, and the center of gravity of the part that is obtained on the reduction image is converted to that on the original image on the basis of the reduction ratio. Therefore, calculation steps for component positions can be reduced and its calculation time also be shortened through by such parts position recognition processing.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、たとえば、プリント
基板にIC等の電子部品を装着する部品自動装着装置に
利用される部品位置認識装置であって、部品の位置、姿
勢等を認識する部品位置認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a component position recognizing device for use in a component automatic mounting apparatus for mounting an electronic component such as an IC on a printed circuit board. The present invention relates to a position recognition device.

【0002】[0002]

【従来の技術】電子部品を基板上に自動的に装着する電
子部品自動装着装置では、対象部品がカメラ等で撮影さ
れ、画像処理を用いて対象部品の位置が認識され、認識
された対象部品の位置に基づいて対象部品が基板上の所
定位置へ装着される。特にフラットパッケージICなど
のように電極部分が明確に識別可能な部品の場合は、こ
の電極位置を検出して部品全体の位置を認識することが
可能である。
2. Description of the Related Art In an electronic component automatic mounting apparatus that automatically mounts electronic components on a substrate, the target component is photographed by a camera, the position of the target component is recognized using image processing, and the recognized target component is recognized. The target component is mounted at a predetermined position on the substrate based on the position of. Particularly in the case of a component such as a flat package IC whose electrode portion can be clearly identified, it is possible to detect the electrode position and recognize the position of the entire component.

【0003】フラットパッケージICの位置認識装置と
しては、特開昭62−86789号公報に記載されたも
のがある。この位置認識装置では、あらかじめ機械的な
手段により大まかに位置決めされた状態にあるIC部品
が撮像装置で撮像される。IC部品の各電極列の画像パ
ターンに対して、電極にほぼ直交するようにサンプル直
線が設定される。サンプル直線上での明るさの変化によ
り各電極列の電極の位置が求められ、各電極列の列方向
中心位置が求められる。そして、求められた各電極列の
列方向中心位置に基づいてIC部品の位置が求められ
る。
As a position recognizing device for a flat package IC, there is one which is disclosed in Japanese Patent Laid-Open No. 62-86789. In this position recognition device, the IC device, which has been roughly positioned in advance by mechanical means, is imaged by the imaging device. The sample straight line is set so as to be substantially orthogonal to the electrodes with respect to the image pattern of each electrode array of the IC component. The position of the electrode of each electrode array is obtained from the change in brightness on the sample straight line, and the center position in the column direction of each electrode array is obtained. Then, the position of the IC component is calculated based on the calculated center position of each electrode array in the column direction.

【0004】[0004]

【発明が解決しようとする課題】ところで、フラットパ
ッケージには、QFP(quad flat package) のようにパ
ッケージ本体の4 辺から電極が突出しているもの、SO
P(small out line package)のようにパッケージ本体の
対向する2辺から電極が突出しているもの等がある。
By the way, a flat package, such as a QFP (quad flat package), has electrodes protruding from four sides of the package body, SO
There are some such as P (small out line package) in which electrodes project from two opposite sides of the package body.

【0005】上記従来の位置認識装置では、QFPが実
装されたICのようにパッケージ本体の4 辺から電極が
突出しているものに対しては、4つの電極列の列方向中
心位置に基づいて部品の位置が求められるため、精度の
高い部品位置認識が行える。しかしながら、SOPが実
装されたICのようにパッケージ本体の対向する2辺の
みからしか電極が突出していないものに対しては、2つ
の電極列の列方向中心位置しか得られないので、電極の
幅方向(電極列の列方向)に対する部品位置は正確に認
識されるが、電極の長さ方向に対する部品位置は、あら
かじめ機械的な手段により大まかに位置決めされた際の
精度しか保証されない。
In the above-mentioned conventional position recognizing device, in the case where the electrodes are projected from the four sides of the package body such as the IC in which the QFP is mounted, the component is based on the center position in the column direction of the four electrode rows. Since the position of is required, the component position can be recognized with high accuracy. However, for an IC in which the SOP is mounted, in which the electrodes protrude only from two opposite sides of the package body, only the center position in the column direction of the two electrode rows can be obtained. The component position with respect to the direction (column direction of the electrode array) is accurately recognized, but the component position with respect to the length direction of the electrodes can only guarantee the accuracy when roughly positioned in advance by mechanical means.

【0006】また、近年のフラットパッケージICでは
多ピン狭ピッチ化が進んでおり、上記のような機械位置
決めでは精度が得られず、結果として位置認識の信頼性
が低下している。
Further, in recent flat package ICs, the narrowing of the number of pins has been progressing, and the accuracy cannot be obtained by the mechanical positioning as described above, and as a result, the reliability of position recognition is lowered.

【0007】さらに、部品装着装置においては、益々の
高速化が求められており、1部品当たりの処理速度を高
速化する必要が生じている。高速化を図るため、画像全
体を処理するのではなく、機械精度や統計、経験上の推
定による限定領域(ウインドウ)を設定して計算量を減
少させる方法が開発されている。しかしながら、このよ
うな方法では、限定領域の決定の困難さ、また限定領域
をはずれた場合は回復処理が必要であることから、処理
時間に大きなばらつきが正じ、結果的として処理時間が
増大するなどの問題点がある。
Further, in the component mounting apparatus, higher speed is required more and more, and it is necessary to increase the processing speed per one component. In order to increase the speed, a method has been developed to reduce the amount of calculation by setting a limited area (window) based on machine accuracy, statistics, and empirical estimation, instead of processing the entire image. However, in such a method, since it is difficult to determine the limited area, and the recovery processing is required when the limited area is deviated, a large variation in the processing time is corrected, and as a result, the processing time is increased. There are problems such as.

【0008】この発明は、部品の位置を高速に認識でき
る部品位置認識装置を提供することを目的とする。
An object of the present invention is to provide a component position recognition device capable of recognizing the position of a component at high speed.

【0009】[0009]

【課題を解決するための手段】この発明による第1の部
品位置認識装置は、部品の位置を認識する部品位置認識
装置において、上記部品の濃淡画像を格納する部品画像
記憶手段、部品画像記憶手段に格納された全体画像から
所要数画素おきにサンプリングしたデータで構成された
縮小画像を作成する縮小画像作成手段、および縮小画像
作成手段によって得られた縮小画像に基づいて、部品の
位置を算出する位置算出手段を備えていることを特徴と
する。
A first component position recognizing device according to the present invention is a component position recognizing device for recognizing a position of a component, which is a component image storing means for storing a grayscale image of the component and a component image storing means. Reduced image creating means for creating a reduced image composed of data sampled every required number of pixels from the entire image stored in, and the position of the component is calculated based on the reduced image obtained by the reduced image creating means. It is characterized by comprising a position calculating means.

【0010】この発明による第2の部品位置認識装置
は、突出部を有する部品の位置を認識する部品位置認識
装置において、上記部品の濃淡画像を格納する部品画像
記憶手段、部品画像記憶手段に格納された全体画像から
所要数画素おきにサンプリングしたデータで構成された
縮小画像を作成する縮小画像作成手段、縮小画像作成手
段によって得られた縮小画像を、部品と背景とが分離さ
れた縮小2値化画像に変換する変換手段、変換手段によ
って得られた縮小2値化画像に対して、収縮フィルタ処
理を施して、縮小2値化画像から上記部品の突出部が除
去された収縮画像を作成する収縮画像作成手段、および
収縮画像作成手段によって得られた収縮画像に基づい
て、部品の位置を算出する位置算出手段を備えているこ
とを特徴とする。
A second component position recognizing device according to the present invention is a component position recognizing device for recognizing a position of a component having a projecting portion, which is stored in a component image storing means for storing a grayscale image of the component and a component image storing means. Reduced image creating means for creating a reduced image composed of data sampled every required number of pixels from the entire image obtained, and a reduced binary image obtained by separating the reduced image obtained by the reduced image creating means from the parts and the background. The conversion means for converting into the converted image, the contraction filter processing is performed on the reduced binary image obtained by the conversion means, and the contracted image in which the protruding portion of the component is removed from the reduced binary image is created. It is characterized in that it is provided with a shrinkage image creating means and a position calculating means for calculating the position of the component based on the shrinkage image obtained by the shrinkage image creating means.

【0011】この発明による第3の部品位置認識装置
は、部品の位置を認識する部品位置認識装置において、
上記部品の濃淡画像を格納する部品画像記憶手段、部品
画像記憶手段に格納された全体画像から所要数画素おき
にサンプリングしたデータで構成された縮小画像を作成
する縮小画像作成手段、縮小画像作成手段によって得ら
れた縮小画像を、部品と背景とが分離された縮小2値化
画像に変換する変換手段、変換手段によって得られた縮
小2値化画像に対して、輪郭抽出用フィルタを用いて輪
郭抽出処理を施すことにより、縮小2値化画像で表され
た部品の輪郭に応じた輪郭画像を作成する輪郭画像作成
手段、および輪郭画像作成手段によって得られた輪郭画
像に基づいて、部品の位置を算出する位置算出手段を備
えていることを特徴とする。
A third component position recognizing device according to the present invention is a component position recognizing device for recognizing a position of a component,
Component image storing means for storing the grayscale image of the component, reduced image creating means and reduced image creating means for creating a reduced image composed of data sampled every required number of pixels from the entire image stored in the component image storing means. A conversion unit that converts the reduced image obtained by the above into a reduced binary image in which the parts and the background are separated, and the reduced binary image obtained by the conversion unit is contoured using a contour extraction filter. A contour image creating unit that creates a contour image corresponding to the contour of the component represented by the reduced binary image by performing the extraction process, and the position of the component based on the contour image obtained by the contour image creating unit It is characterized by comprising a position calculation means for calculating.

【0012】この発明による第4の部品位置認識装置
は、突出部を有する部品の位置を認識する部品位置認識
装置において、上記部品の濃淡画像を格納する部品画像
記憶手段、部品画像記憶手段に格納された全体画像から
所要数画素おきにサンプリングしたデータで構成された
縮小画像を作成する縮小画像作成手段、縮小画像作成手
段によって得られた縮小画像を、部品と背景とが分離さ
れた縮小2値化画像に変換する変換手段、変換手段によ
って得られた縮小2値化画像に対して、収縮フィルタ処
理を施して、縮小2値化画像から上記部品の突出部が除
去された収縮画像を作成する収縮画像作成手段、収縮画
像作成手段によって得られた収縮画像に対して、輪郭抽
出用フィルタを用いて輪郭抽出処理を施すことにより、
収縮画像で表された部品の輪郭に応じた輪郭画像を作成
する輪郭画像作成手段、および輪郭画像作成手段によっ
て得られた輪郭画像に基づいて、部品の位置を算出する
位置算出手段を備えていることを特徴とする。
A fourth component position recognizing device according to the present invention is a component position recognizing device for recognizing the position of a component having a projecting portion, which is stored in a component image storing means for storing a grayscale image of the component and a component image storing means. Reduced image creating means for creating a reduced image composed of data sampled every required number of pixels from the entire image obtained, and a reduced binary image obtained by separating the reduced image obtained by the reduced image creating means from the parts and the background. The conversion means for converting into the converted image, the contraction filter processing is performed on the reduced binary image obtained by the conversion means, and the contracted image in which the protruding portion of the component is removed from the reduced binary image is created. The contracted image creating means, the contracted image obtained by the contracted image creating means is subjected to contour extraction processing using a contour extraction filter,
A contour image creating unit that creates a contour image corresponding to the contour of the component represented by the contracted image, and a position calculating unit that calculates the position of the component based on the contour image obtained by the contour image creating unit are provided. It is characterized by

【0013】上記第3または第4の部品位置認識装置に
おいて、輪郭抽出用フィルタとしては、3×3画素サイ
ズのフィルタであって、構成画素は全て異なる値を持ち
かつ各構成画素の値は、他の構成画素の値をどの様に組
み合わせて加算しても表現されない値であるものが用い
られる。
In the third or fourth component position recognizing device, the contour extracting filter is a filter having a size of 3 × 3 pixels, the constituent pixels all have different values, and the values of the respective constituent pixels are: A value that is not expressed by any combination of values of other constituent pixels and addition is used.

【0014】[0014]

【作用】この発明による第1の部品位置認識装置では、
部品の濃淡画像が部品画像記憶手段に格納される。部品
画像記憶手段に格納された全体画像から所要数画素おき
にサンプリングしたデータで構成された縮小画像が縮小
画像作成手段によって作成される。そして、縮小画像作
成手段によって得られた縮小画像に基づいて、部品の位
置が算出される。
In the first component position recognizing device according to the present invention,
The grayscale image of the component is stored in the component image storage means. The reduced image creating means creates a reduced image composed of data sampled at every required number of pixels from the entire image stored in the component image storage means. Then, the position of the component is calculated based on the reduced image obtained by the reduced image creating means.

【0015】この発明による第2の部品位置認識装置で
は、突出部を有する部品の濃淡画像が部品画像記憶手段
に格納される。部品画像記憶手段に格納された全体画像
から所要数画素おきにサンプリングしたデータで構成さ
れた縮小画像が縮小画像作成手段によって作成される。
縮小画像作成手段によって得られた縮小画像が、変換手
段によって部品と背景とが分離された縮小2値化画像に
変換される。変換手段によって得られた縮小2値化画像
に対して、収縮画像作成手段によって、収縮フィルタ処
理が施されて、縮小2値化画像から上記部品の突出部が
除去された収縮画像が作成される。そして、収縮画像作
成手段によって得られた収縮画像に基づいて、部品の位
置が算出される。
In the second component position recognition apparatus according to the present invention, the grayscale image of the component having the protruding portion is stored in the component image storage means. The reduced image creating means creates a reduced image composed of data sampled at every required number of pixels from the entire image stored in the component image storage means.
The reduced image obtained by the reduced image creating means is converted by the converting means into a reduced binary image in which the parts and the background are separated. The reduced binary image obtained by the converting means is subjected to the shrinkage filter processing by the shrinkage image creating means to create a shrinkage image in which the projecting parts of the parts are removed from the reduced binary image. . Then, the position of the component is calculated based on the shrinkage image obtained by the shrinkage image creating means.

【0016】この発明による第3の部品位置認識装置で
は、部品の濃淡画像が部品画像記憶手段に格納される。
部品画像記憶手段に格納された全体画像から所要数画素
おきにサンプリングしたデータで構成された縮小画像が
縮小画像作成手段によって作成される。縮小画像作成手
段によって得られた縮小画像が、変換手段によって部品
と背景とが分離された縮小2値化画像に変換される。変
換手段によって得られた縮小2値化画像に対して、輪郭
画像作成手段によって、輪郭抽出用フィルタを用いて輪
郭抽出処理が施されることにより、縮小2値化画像で表
された部品の輪郭に応じた輪郭画像が作成される。そし
て、輪郭画像作成手段によって作成された輪郭画像に基
づいて、部品の位置が算出される。
In the third component position recognizing apparatus according to the present invention, the grayscale image of the component is stored in the component image storage means.
The reduced image creating means creates a reduced image composed of data sampled at every required number of pixels from the entire image stored in the component image storage means. The reduced image obtained by the reduced image creating means is converted by the converting means into a reduced binary image in which the parts and the background are separated. The contour image creation means performs contour extraction processing using a contour extraction filter on the reduced binary image obtained by the conversion means, so that the contour of the component represented by the reduced binary image is obtained. A contour image corresponding to is created. Then, the position of the component is calculated based on the contour image created by the contour image creating means.

【0017】この発明による第4の部品位置認識装置で
は、突出部を有する部品の濃淡画像が部品画像記憶手段
に格納される。部品画像記憶手段に格納された全体画像
から所要数画素おきにサンプリングしたデータで構成さ
れた縮小画像が縮小画像作成手段によって作成される。
縮小画像作成手段によって得られた縮小画像が、変換手
段によって部品と背景とが分離された縮小2値化画像に
変換される。変換手段によって得られた縮小2値化画像
に対して、収縮画像作成手段によって、収縮フィルタ処
理が施されて、縮小2値化画像から上記部品の突出部が
除去された収縮画像が作成される。収縮画像作成手段に
よって得られた収縮画像に対して、輪郭画像作成手段に
よって、輪郭抽出用フィルタを用いて輪郭抽出処理が施
されることにより、収縮画像で表された部品の輪郭に応
じた輪郭画像が作成される。そして、輪郭画像作成手段
によって作成された輪郭画像に基づいて、部品の位置が
算出される。
In the fourth component position recognition apparatus according to the present invention, the grayscale image of the component having the protruding portion is stored in the component image storage means. The reduced image creating means creates a reduced image composed of data sampled at every required number of pixels from the entire image stored in the component image storage means.
The reduced image obtained by the reduced image creating means is converted by the converting means into a reduced binary image in which the parts and the background are separated. The reduced binary image obtained by the converting means is subjected to the shrinkage filter processing by the shrinkage image creating means to create a shrinkage image in which the projecting parts of the parts are removed from the reduced binary image. . The contour image creating unit performs contour extraction processing using the contour extraction filter on the shrinkage image obtained by the shrinkage image creating unit, thereby creating a contour corresponding to the contour of the part represented by the shrinkage image. The image is created. Then, the position of the component is calculated based on the contour image created by the contour image creating means.

【0018】[0018]

【実施例】以下、図面を参照して、この発明を電子部品
自動装着装置(チップマウンタ)に設けられた部品位置
認識装置に適用した場合の実施例について説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment in which the present invention is applied to a component position recognizing device provided in an electronic component automatic mounting device (chip mounter) will be described below with reference to the drawings.

【0019】図1は、電子部品自動装着装置の構成を示
している。
FIG. 1 shows the configuration of an electronic component automatic mounting apparatus.

【0020】電子部品自動装着装置は、部品実装装置本
体1、制御装置2および部品位置認識装置3を備えてい
る。部品位置認識装置3と制御装置2は、データ通信手
段4を介して接続されている。
The electronic component automatic mounting apparatus comprises a component mounting apparatus main body 1, a control apparatus 2 and a component position recognition apparatus 3. The component position recognition device 3 and the control device 2 are connected via a data communication means 4.

【0021】部品実装工程は、制御装置2に格納された
プログラムおよび部品種類等のデータによって実行され
る。制御装置2は、データ通信手段4により部品位置認
識装置3へ認識指令および関連情報を送信する。そし
て、制御装置2は、部品位置認識装置3から部品の位置
に関する情報を受信すると、受信情報に基づいて、部品
位置を補正する。この後、部品実装装置本体1により部
品がプリント基板上に装着される。
The component mounting process is executed by a program stored in the control device 2 and data such as a component type. The control device 2 transmits the recognition command and the related information to the component position recognition device 3 by the data communication means 4. Then, when the control device 2 receives the information regarding the position of the component from the component position recognition device 3, the control device 2 corrects the component position based on the received information. After that, the component is mounted on the printed circuit board by the component mounting apparatus main body 1.

【0022】部品位置認識装置3は、制御装置2から受
信した認識指令および関連情報により、装備しているカ
メラ群5から最適の倍率カメラを決定し、部品画像を撮
影し、デジタル情報として画像メモリ6に格納する。部
品位置認識処理手順はプログラムとしてメモリ7または
ハードディスク装置8に格納されており、このプログラ
ムに基づいてCPU9が、画像メモリ6に格納された画
像データに対して部品位置認識処理を実行する。部品位
置認識装置3は、部品位置認識処理で用いる高速フィル
タ演算処理回路10およびサンプリング処理回路11を
備えている。
The component position recognition device 3 determines the optimum magnification camera from the camera group 5 equipped with the recognition command and related information received from the control device 2, photographs the component image, and stores it as digital information in the image memory. Store in 6. The component position recognition processing procedure is stored in the memory 7 or the hard disk device 8 as a program, and the CPU 9 executes the component position recognition processing on the image data stored in the image memory 6 based on this program. The component position recognition device 3 includes a high-speed filter arithmetic processing circuit 10 and a sampling processing circuit 11 used in the component position recognition processing.

【0023】部品位置認識装置3による部品位置認識処
理について説明する。ここでは、3種類の部品位置認識
処理について説明する。
The component position recognition processing by the component position recognition device 3 will be described. Here, three types of component position recognition processing will be described.

【0024】 (I)第1の部品位置認識処理についての説明(I) Description of First Component Position Recognition Processing

【0025】まず、対象部品の濃淡画像がカメラ5によ
って撮影され、濃度(明度)をデジタル値として持つ画
素データ配列として画像メモリ6に格納される。図2
は、対象部品の撮像画像の例を示している。図2の例で
は、対象部品は、撮像画像が矩形として現れている。
First, a grayscale image of the target part is photographed by the camera 5 and stored in the image memory 6 as a pixel data array having a density (brightness) as a digital value. Figure 2
Shows an example of a captured image of the target component. In the example of FIG. 2, the captured image of the target component appears as a rectangle.

【0026】次に、図3に示すように、対象部品の原画
像(図2)から1〜数画素ずつおきに飛ばして採取(サ
ンプリング)した画素を並べて再構成した縮小画像が作
成される(以下、縮小処理という)。図3(a)は、原
画像を示し、原画像の全画素のうち網掛けで示された画
素のみが取り出されて、図3(b)のような縮小画像が
作成される。サンプリング間隔は、部品の大きさに応じ
て、縮小画像中に対象部品全体の画像情報が含まれるよ
うに設定される。
Next, as shown in FIG. 3, a reduced image is reconstructed by arranging pixels sampled by skipping every one to several pixels from the original image (FIG. 2) of the target part (sampling) ( Hereinafter referred to as reduction processing). FIG. 3A shows an original image, and out of all the pixels of the original image, only the shaded pixels are taken out to create a reduced image as shown in FIG. 3B. The sampling interval is set according to the size of the component so that the reduced image includes the image information of the entire target component.

【0027】次に、縮小画像に基づいて、対象部品の重
心位置および座標軸に対する傾きが算出される。そし
て、サンプリング間隔から画像の縮小率が算出され、こ
の縮小率に基づいて、図3(b)の縮小画像上で算出し
た対象部品の重心位置が原画像(図1)における重心位
置に換算される。この部品位置認識処理では、部品の位
置算出のための計算量を少なくすることができるので、
位置算出時間の短縮化が図れる。
Next, based on the reduced image, the center of gravity of the target part and the inclination with respect to the coordinate axes are calculated. Then, the reduction ratio of the image is calculated from the sampling interval, and the barycentric position of the target component calculated on the reduced image of FIG. 3B is converted into the barycentric position in the original image (FIG. 1) based on this reduction ratio. It In this component position recognition processing, the amount of calculation for calculating the position of the component can be reduced,
The position calculation time can be shortened.

【0028】 (II)第2の部品位置認識処理についての説明(II) Description of Second Component Position Recognition Processing

【0029】第2の部品位置認識処理は、対象部品が電
極部等の突出部を有する場合に適用される。
The second component position recognition processing is applied when the target component has a protruding portion such as an electrode portion.

【0030】まず、対象部品の濃淡画像がカメラ5によ
って撮影され、濃度をデジタル値として持つ画素データ
配列として画像メモリ6に格納される。そして、上記第
1の部品位置認識処理の場合と同様に縮小処理が施さ
れ、対象部品の原画像の縮小画像が作成される。図4
は、縮小画像の1例を示している。この縮小画像からわ
かるように、対象部品は部品本体の対向する2辺からそ
れぞれ4本ずつ外方に突出した電極部を有している。
First, a grayscale image of a target part is photographed by the camera 5 and stored in the image memory 6 as a pixel data array having a density as a digital value. Then, reduction processing is performed in the same manner as in the case of the first component position recognition processing described above, and a reduced image of the original image of the target component is created. Figure 4
Shows an example of a reduced image. As can be seen from this reduced image, the target component has four electrode portions protruding outward from each of two opposing sides of the component body.

【0031】次に、縮小画像の部品と背景とが分離する
ように各画素の濃度値を、白”0”または黒”1”に2
値化することにより、図5に示す縮小2値化画像が作成
される。
Next, the density value of each pixel is changed from white "0" or black "1" to 2 so that the parts of the reduced image and the background are separated.
By digitizing, the reduced binary image shown in FIG. 5 is created.

【0032】次に、図7に示すような3×3の収縮フィ
ルタを縮小2値化画像の全画素に対して走査させて演算
処理(収縮または浸食フィルタ処理)を行うことによ
り、図6に示すような電極部(突出部)が除去された画
像が作成される。
Next, a 3 × 3 contraction filter as shown in FIG. 7 is scanned for all the pixels of the reduced binary image to perform arithmetic processing (contraction or erosion filter processing). An image in which the electrode portions (protrusions) are removed as shown is created.

【0033】この収縮フィルタ処理について詳しく説明
する。図5の縮小2値化画像に図7の縮小フィルタが重
ねられ、フィルタ中央に対応する画素に対する、近傍の
濃度値の加重和D1が次の数式1により求められる。
The contraction filter process will be described in detail. The reduction filter of FIG. 7 is superposed on the reduced binary image of FIG. 5, and the weighted sum D1 of the density values in the vicinity of the pixel corresponding to the center of the filter is obtained by the following formula 1.

【0034】[0034]

【数1】D1=ΣFi×Gi (i=1〜9)## EQU1 ## D1 = ΣFi × Gi (i = 1 to 9)

【0035】上記数式1において、iはフィルタの各構
成画素の位置を示す。すなわち、フィルタ中央画素に対
して、左上、真上、右上、左、中央画素、右、左下、真
下、右下の近傍画素に対するiをそれぞれ1、2…9と
する。Fiは、収縮フィルタのi=1〜9に対応する構
成画素の値である。Giは、縮小2値化画像のi=1〜
9に対応する画素の濃度値(入力値)である。
In the above formula 1, i indicates the position of each constituent pixel of the filter. That is, i is 1, 2, ... 9 for neighboring pixels of the upper left, right above, upper right, left, center pixel, right, lower left, right under, and lower right of the filter center pixel. Fi is the value of the constituent pixel corresponding to i = 1 to 9 of the contraction filter. Gi is i = 1 to 1 of the reduced binary image.
9 is the density value (input value) of the pixel corresponding to 9.

【0036】次に、次の数式2で表される判定条件に基
づいて、フィルタ中央に対応する縮小2値化画像の画素
の出力値g1が求められる。
Next, the output value g1 of the pixel of the reduced binarized image corresponding to the center of the filter is obtained based on the determination condition expressed by the following equation 2.

【0037】[0037]

【数2】D1=8のとき、g1=1 D1≠8のとき、g=0## EQU2 ## When D1 = 8, g1 = 1. When D1 ≠ 8, g = 0.

【0038】上記数式2で表されるような判定基準に基
づいて、フィルタ中央に対応する縮小2値化画像の画素
の出力値g1を求めると、縮小2値化画像の各画素のう
ち、その周囲の8つの画素の濃度値が全て”1”である
画素のみ、出力値g1が”1”となる。
When the output value g1 of the pixel of the reduced binarized image corresponding to the center of the filter is obtained based on the determination criterion represented by the above-mentioned equation 2, the output value g1 of each pixel of the reduced binarized image is calculated. The output value g1 becomes "1" only for pixels in which the density values of the eight surrounding pixels are all "1".

【0039】したがって、収縮フィルタ処理された後の
収縮画像(図6)は、図5の縮小2値化画像に対して、
ひと皮分取り除かれたような画像となり、電極部が除去
された略矩形形状の画像となる。しかしながら、収縮画
像の重心位置および座標軸に対する傾きは、縮小2値化
画像の重心位置および座標軸に対する傾きと同じであ
る。
Therefore, the contracted image after the contraction filter processing (FIG. 6) is the same as the contracted binarized image of FIG.
The image is as if one skin had been removed, and the image has a substantially rectangular shape with the electrode portions removed. However, the center of gravity of the contracted image and the inclination with respect to the coordinate axis are the same as the center of gravity of the reduced binary image and the inclination with respect to the coordinate axis.

【0040】なお、画像サイズによっては1回の収縮フ
ィルタ処理では突出部が除去されない場合があるが、収
縮フィルタ処理を複数回行うことにより完全に突出部が
除去された略矩形形状の画像を得ることが可能である。
Depending on the image size, the projecting portion may not be removed by one contraction filtering process, but by performing the contracting filtering process a plurality of times, a substantially rectangular image in which the projecting part is completely removed is obtained. It is possible.

【0041】収縮フィルタ処理が行われて略矩形形状の
収縮画像が得られると、収縮画像に基づいて、対象部品
の重心位置および座標軸に対する傾きが算出される。そ
して、サンプリング間隔から画像の縮小率が算出され、
この縮小率に基づいて、図6の収縮画像上で算出した対
象部品の重心位置が原画像における重心位置に換算され
る。この位置認識処理によれば、電極部等の突出部を有
する部品に対して、突出部が除去された画像(収縮画
像)に基づいて、部品位置が算出される。このため、部
品の位置算出のための計算量を少なくすることができる
ので、位置算出時間の短縮化が図れる。
When the contraction filter processing is performed to obtain a contracted image having a substantially rectangular shape, the position of the center of gravity of the target component and the inclination with respect to the coordinate axis are calculated based on the contracted image. Then, the reduction ratio of the image is calculated from the sampling interval,
Based on this reduction ratio, the barycentric position of the target component calculated on the contracted image in FIG. 6 is converted into the barycentric position in the original image. According to this position recognition processing, the position of the component is calculated based on the image (contracted image) from which the protrusion is removed for the component having the protrusion such as the electrode portion. Therefore, the amount of calculation for calculating the position of the component can be reduced, and the position calculation time can be shortened.

【0042】 (III)第3の部品位置認識処理についての説明(III) Description of Third Component Position Recognition Processing

【0043】第3の部品位置認識処理においては、第1
の部品位置認識処理における縮小処理後に得られた略矩
形形状の縮小画像の2値化画像(縮小2値化画像)また
は第2の部品位置認識処理における縮小処理および収縮
フィルタ処理後に得られた略矩形形状の収縮画像に対
し、さらに、図10に示す3×3の輪郭抽出用フィルタ
を用いて輪郭抽出処理が行われる。
In the third component position recognition processing, the first
Binary image (reduced binarized image) of the substantially rectangular reduced image obtained after the reduction processing in the component position recognition processing, or the outline obtained after the reduction processing and the contraction filtering processing in the second component position recognition processing. Contour extraction processing is further performed on the rectangular contracted image using the 3 × 3 contour extraction filter shown in FIG. 10.

【0044】この輪郭抽出処理について、図8に示すよ
うな図3の縮小画像に対する縮小2値化画像に対して輪
郭抽出処理が行われる場合を例にとって説明する。図1
0に示すような3×3の輪郭抽出用フィルタを図8の縮
小2値化画像の全画素に対して走査させて演算処理(輪
郭抽出処理)を行うことにより、図9に示すような輪郭
画像が作成される。
This contour extraction processing will be described by taking as an example the case where the contour extraction processing is performed on the reduced binary image for the reduced image of FIG. 3 as shown in FIG. Figure 1
A 3 × 3 contour extraction filter as shown in FIG. 0 scans all the pixels of the reduced binarized image of FIG. 8 to perform arithmetic processing (contour extraction processing). The image is created.

【0045】図10に示すように、輪郭抽出用フィルタ
では、中心の構成画素は”0”の値を持っている。ま
た、周囲8個の各構成画素は全て異なる値を持ちかつ各
構成画素の値は他の7つの構成画素の値をどのように組
合わせて加算しても表現されない値となっている。この
例では、フィルタ中央画素に対して左上の値が”
0 ”、真上の値が”21 ”、右上の値が”22 ”、右
の値が”23 ”、右下の値が”24 ”、真下の値が”2
5 ”、左下の値が”26 ”、左の値が”27 ”となって
いる。
As shown in FIG. 10, in the contour extraction filter, the central constituent pixel has a value of "0". Further, each of the eight surrounding constituent pixels has a different value, and the value of each constituent pixel is a value that cannot be expressed by combining and adding the values of the other seven constituent pixels. In this example, the upper left value for the filter center pixel is "
2 0 ", the value immediately above is" 2 1 ", the value at the upper right is" 2 2 ", the value at the right is" 2 3 ", the value at the lower right is" 2 4 ", the value immediately below is" 2 "
5 ", the lower left value is" 2 6 ", and the left value is" 2 7 ".

【0046】いいかえれば、輪郭抽出用フィルタとして
は、「各構成要素は全て異なる値を持ちかつ各構成画素
の値は、他の構成画素の値をどの様に組み合わせて加算
しても表現されない値であること」という条件を満たし
たものが用いられている。
In other words, as a contour extraction filter, "each constituent element has a different value, and the value of each constituent pixel is a value that cannot be expressed by adding any combination of the values of other constituent pixels. Is used.

【0047】図8の縮小2値化画像に図10の輪郭抽出
用フィルタが重ねられ、フィルタ中央に対応する画素に
対する、近傍の濃度値の加重和D2が次の数式3により
求められる。
The contour extraction filter shown in FIG. 10 is superimposed on the reduced binary image shown in FIG. 8, and the weighted sum D2 of the density values in the vicinity of the pixel corresponding to the center of the filter is obtained by the following expression 3.

【0048】[0048]

【数3】D2=ΣFi×Gi (i=1〜9)[Equation 3] D2 = ΣFi × Gi (i = 1 to 9)

【0049】上記数式3において、iはフィルタの各構
成画素の位置を示す。すなわち、フィルタ中央画素に対
して、左上、真上、右上、左、中央画素、右、左下、真
下、右下の近傍画素に対するiをそれぞれ1、2…9と
する。Fiは、縮小フィルタのi=1〜9に対応する構
成画素の設定値である。Giは、縮小2値化画像のi=
1〜9に対応する画素の濃度値(入力値)である。
In Expression 3, i represents the position of each constituent pixel of the filter. That is, i is 1, 2, ... 9 for neighboring pixels of the upper left, right above, upper right, left, center pixel, right, lower left, right under, and lower right of the filter center pixel. Fi is a set value of the constituent pixels corresponding to i = 1 to 9 of the reduction filter. Gi is i = of the reduced binary image
It is the density value (input value) of the pixels corresponding to 1 to 9.

【0050】次に、次の数式4で表される判定条件に基
づいて、フィルタ中央に対応する縮小2値化画像の画素
の出力値g2が求められる。
Next, the output value g2 of the pixel of the reduced binarized image corresponding to the center of the filter is obtained based on the determination condition represented by the following expression 4.

【0051】[0051]

【数4】D2=20 のとき、g2=20 D2=22 のとき、g2=22 D2=24 のとき、g2=24 D2=26 のとき、g2=26 D2が、20 、22 、24 または26 以外のとき、g2
=0
## EQU4 ## When D2 = 2 0 , g2 = 2 0 D2 = 2 2 , g2 = 2 2 D2 = 2 4 , g2 = 2 4 D2 = 2 6 , g2 = 2 6 D2 When other than 2 0 , 2 2 , 2 4 or 2 6 , g2
= 0

【0052】上記数式4で表されるような判定基準に基
づいて、フィルタ中央に対応する縮小画像の画素の出力
値g2を求めると、周囲8つの画素のうちの4隅の1つ
のみが”1”である縮小2値化画像の画素の出力値g2
は、濃度値が”1”である1つの画素の位置に応じ
て、”20 ”、”22 ”、”24 ”または”26 ”のい
ずれかになる。その他のケースには、フィルタ中央に対
応する縮小画像の画素の出力値g2は”0”となる。
When the output value g2 of the pixel of the reduced image corresponding to the center of the filter is obtained based on the judgment criterion as expressed by the equation 4, only one of the four corners of the eight surrounding pixels is " The output value g2 of the pixel of the reduced binary image which is 1 "
, Depending on the position of one pixel is a density value is "1", "2 0", "2 2", be either "2 4" or "2 6". In other cases, the output value g2 of the pixel of the reduced image corresponding to the center of the filter is "0".

【0053】上記その他のケースに該当する例として
は、縮小2値化画像の各画素のうち、その周囲の2つ以
上の濃度値が”1”である画素、周囲全ての濃度値が”
0”である画素および周囲8つの画素のうち、真上、真
下、左、右のうちの1つのみが”1”である場合等が挙
げられる。
As an example corresponding to the above-mentioned other cases, among the pixels of the reduced binary image, two or more of the pixels in the periphery have density values of "1", and the density values of all the periphery are "
For example, the case where only one of the pixels directly above, directly below, left, and right is "1" among the pixels that are "0" and the eight surrounding pixels, and the like.

【0054】出力値g2が”20 ”、”22 ”、”
4 ”または”26 ”のいずれかになる場合について、
さらに具体的に説明すると、周囲8つの画素のうち、左
上の画素のみが”1”である場合には、中央画素の出力
値g2は、”20 ”となる。周囲8つの画素のうち、右
上の画素のみが”1”である場合には、中央画素の出力
値g2は、”22 ”となる。周囲8つの画素のうち、右
下の画素のみが”1”である場合には、中央画素の出力
値g2は、”24 ”となる。周囲8つの画素のうち、左
下の画素のみが”1”である場合には、中央画素の出力
値g2は、”26 ”となる。
The output value g2 is "2 0 ", "2 2 ", "
In case of either 2 4 "or" 2 6 ",
More specifically, when only the upper left pixel of the eight surrounding pixels is “1”, the output value g2 of the central pixel is “2 0 ”. When only the upper right pixel of the eight surrounding pixels is “1”, the output value g2 of the central pixel is “2 2 ”. When only the lower right pixel is “1” among the eight surrounding pixels, the output value g2 of the central pixel is “2 4 ”. When only the lower left pixel of the eight surrounding pixels is "1", the output value g2 of the central pixel is "2 6 ".

【0055】たとえば、図8に示す縮小2値化画像の画
素Xに対する近傍の濃度値の加重和D2は、”24 ”と
なる。したがって、画素Xに対する出力値g2は、”2
4 ”となる。このような輪郭抽出処理が施されると、図
9に示すように、図8の縮小2値化画像の各辺毎の端点
の外側に、同じ辺に対しては同じ出力値g2を持ちかつ
各辺ごとに出力値g2が異なる輪郭画像のみが得られ
る。
For example, the weighted sum D2 of the density values in the vicinity of the pixel X of the reduced binary image shown in FIG. 8 is "2 4 ". Therefore, the output value g2 for the pixel X is "2
When such contour extraction processing is performed, as shown in FIG. 9, the same output is applied to the same side outside the end point of each side of the reduced binarized image of FIG. Only contour images having the value g2 and having different output values g2 for each side are obtained.

【0056】図9の輪郭画像に基づいて、図8の縮小2
値化画像の重心位置および座標軸に対する傾斜角θが算
出される。この場合、図9の輪郭画像から、4辺の直線
の式が簡単に得られるので、図8の縮小2値化画像の重
心位置および座標軸に対する傾斜角θの算出が非常に簡
単となる。
Based on the contour image of FIG. 9, reduction 2 of FIG.
The center of gravity of the binarized image and the tilt angle θ with respect to the coordinate axis are calculated. In this case, since the equations for the straight lines on the four sides can be easily obtained from the contour image in FIG. 9, the gravity center position of the reduced binarized image in FIG. 8 and the tilt angle θ with respect to the coordinate axis are very easily calculated.

【0057】図9の輪郭画像に基づいて、図8の縮小2
値化画像の重心位置および座標軸に対する傾斜角θが算
出されると、サンプリング間隔から画像の縮小率が算出
され、この縮小率に基づいて、図9の輪郭画像上で算出
した対象部品の重心位置が原画像における重心位置に換
算される。
Based on the contour image of FIG. 9, reduction 2 of FIG.
When the position of the center of gravity of the binarized image and the tilt angle θ with respect to the coordinate axis are calculated, the reduction ratio of the image is calculated from the sampling interval, and the position of the center of gravity of the target component calculated on the contour image of FIG. 9 is calculated based on this reduction ratio. Is converted into the position of the center of gravity in the original image.

【0058】上記第3の部品位置認識処理においては、
第1の部品位置認識処理における縮小処理後に得られた
略矩形形状の縮小画像の2値化画像(縮小2値化画像)
に対して輪郭抽出処理を施した場合について説明した
が、第2の部品位置認識処理における縮小処理および収
縮フィルタ処理後に得られた略矩形形状の収縮画像(図
6)に対して、輪郭抽出処理を施すようにしてもよい。
In the third component position recognition process,
Binary image (reduced binary image) of a substantially rectangular reduced image obtained after reduction processing in the first component position recognition processing
The case where the contour extraction processing is performed on the contour extraction processing has been described. May be applied.

【0059】また、上記第1、第2または第3の部品位
置認識処理によって、部品の概略位置(粗位置)を算出
し、その算出結果から部品の限られた領域を特定し、特
定した領域内の原画像データを用いて、部品の高精度な
位置(精位置)を求めるようにしてもよい。
Further, the rough position of the component is calculated by the above-described first, second or third component position recognition processing, the limited region of the component is specified from the calculation result, and the specified region is specified. The high-precision position (fine position) of the component may be obtained using the original image data in the above.

【0060】[0060]

【発明の効果】この発明によれば、部品位置を算出する
ための計算量が大幅に減少し、高速処理が可能となる。
また、画像全体を処理するため、機械精度等による推定
位置情報が不要であり、処理時間のばらつきが少なくな
る。
According to the present invention, the amount of calculation for calculating the component position is significantly reduced, and high-speed processing is possible.
In addition, since the entire image is processed, estimated position information due to machine accuracy or the like is unnecessary, and processing time variations are reduced.

【図面の簡単な説明】[Brief description of drawings]

【図1】電子部品自動装着装置の構成を示すブロック図
である。
FIG. 1 is a block diagram showing a configuration of an electronic component automatic mounting apparatus.

【図2】部品の原画像を示す模式図である。FIG. 2 is a schematic diagram showing original images of parts.

【図3】図2の原画像に対する縮小画像を示す模式図で
ある。
FIG. 3 is a schematic diagram showing a reduced image of the original image of FIG.

【図4】突出部を有する部品の原画像に対する縮小画像
を示す模式図である。
FIG. 4 is a schematic diagram showing a reduced image of an original image of a component having a protruding portion.

【図5】図4の縮小画像に対する縮小2値化画像を示す
模式図である。
5 is a schematic diagram showing a reduced binarized image for the reduced image of FIG.

【図6】収縮フィルタを示す模式図である。FIG. 6 is a schematic view showing a contraction filter.

【図7】図5の縮小2値化画像に対する収縮画像を示す
模式図である。
7 is a schematic diagram showing a contracted image for the reduced binary image of FIG.

【図8】図3の収縮画像に対する縮小2値化画像を示す
模式図である。
8 is a schematic diagram showing a reduced binary image for the contracted image of FIG.

【図9】図8の縮小2値化画像に対する輪郭画像を示す
模式図である。
9 is a schematic diagram showing a contour image for the reduced binary image of FIG.

【図10】輪郭抽出用フィルタを示す模式図である。FIG. 10 is a schematic diagram showing a contour extraction filter.

【符号の説明】[Explanation of symbols]

1 部品実装装置本体 2 制御装置 3 部品位置認識装置 4 データ通信手段 5 カメラ 6 画像メモリ 7 メモリ 8 ハードディスク装置 9 CPU 10 高速フィルタ演算処理回路 11 サンプリング処理回路 DESCRIPTION OF SYMBOLS 1 Component mounting device main body 2 Control device 3 Component position recognition device 4 Data communication means 5 Camera 6 Image memory 7 Memory 8 Hard disk device 9 CPU 10 High-speed filter arithmetic processing circuit 11 Sampling processing circuit

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】 部品の位置を認識する部品位置認識装置
において、 上記部品の濃淡画像を格納する部品画像記憶手段、 部品画像記憶手段に格納された全体画像から所要数画素
おきにサンプリングしたデータで構成された縮小画像を
作成する縮小画像作成手段、および縮小画像作成手段に
よって得られた縮小画像に基づいて、部品の位置を算出
する位置算出手段、 を備えていることを特徴とする部品位置認識装置。
1. A component position recognizing device for recognizing the position of a component, comprising: a component image storing means for storing a grayscale image of the component; and data obtained by sampling every required number of pixels from the entire image stored in the component image storing means. Component position recognition, comprising reduced image creating means for creating a configured reduced image, and position calculating means for calculating the position of a part based on the reduced image obtained by the reduced image creating means. apparatus.
【請求項2】 突出部を有する部品の位置を認識する部
品位置認識装置において、 上記部品の濃淡画像を格納する部品画像記憶手段、 部品画像記憶手段に格納された全体画像から所要数画素
おきにサンプリングしたデータで構成された縮小画像を
作成する縮小画像作成手段、 縮小画像作成手段によって得られた縮小画像を、部品と
背景とが分離された縮小2値化画像に変換する変換手
段、 変換手段によって得られた縮小2値化画像に対して、収
縮フィルタ処理を施して、縮小2値化画像から上記部品
の突出部が除去された収縮画像を作成する収縮画像作成
手段、および収縮画像作成手段によって得られた収縮画
像に基づいて、部品の位置を算出する位置算出手段、 を備えていることを特徴とする部品位置認識装置。
2. A component position recognizing device for recognizing the position of a component having a protruding portion, wherein a component image storage means for storing a grayscale image of the component, and a required number of pixels from the entire image stored in the component image storage means. Reduced image creating means for creating a reduced image composed of sampled data, converting means for converting the reduced image obtained by the reduced image creating means into a reduced binary image in which parts and background are separated, and converting means Shrinkage image creating means and shrinkage image creating means for applying shrinkage filter processing to the reduced binary image obtained by the above to create a reduced image in which the protruding portions of the parts are removed from the reduced binary image. A component position recognizing device, comprising: position calculating means for calculating the position of the component based on the contracted image obtained by.
【請求項3】 部品の位置を認識する部品位置認識装置
において、 上記部品の濃淡画像を格納する部品画像記憶手段、 部品画像記憶手段に格納された全体画像から所要数画素
おきにサンプリングしたデータで構成された縮小画像を
作成する縮小画像作成手段、 縮小画像作成手段によって得られた縮小画像を、部品と
背景とが分離された縮小2値化画像に変換する変換手
段、 変換手段によって得られた縮小2値化画像に対して、輪
郭抽出用フィルタを用いて輪郭抽出処理を施すことによ
り、縮小2値化画像で表された部品の輪郭に応じた輪郭
画像を作成する輪郭画像作成手段、および輪郭画像作成
手段によって得られた輪郭画像に基づいて、部品の位置
を算出する位置算出手段、 を備えていることを特徴とする部品位置認識装置。
3. A component position recognizing device for recognizing the position of a component, comprising: a component image storage means for storing a grayscale image of the component; and data obtained by sampling every whole number of pixels from the entire image stored in the component image storage means. Reduced image creating means for creating a configured reduced image, converting means for converting the reduced image obtained by the reduced image creating means into a reduced binary image in which parts and background are separated, and obtained by the converting means Contour image creating means for creating a contour image according to the contour of the component represented by the reduced binary image by performing the outline extraction processing on the reduced binary image using a contour extraction filter, and A component position recognizing device, comprising: position calculating means for calculating the position of a component based on the contour image obtained by the contour image creating means.
【請求項4】 突出部を有する部品の位置を認識する部
品位置認識装置において、 上記部品の濃淡画像を格納する部品画像記憶手段、 部品画像記憶手段に格納された全体画像から所要数画素
おきにサンプリングしたデータで構成された縮小画像を
作成する縮小画像作成手段、 縮小画像作成手段によって得られた縮小画像を、部品と
背景とが分離された縮小2値化画像に変換する変換手
段、 変換手段によって得られた縮小2値化画像に対して、収
縮フィルタ処理を施して、縮小2値化画像から上記部品
の突出部が除去された収縮画像を作成する収縮画像作成
手段、 収縮画像作成手段によって得られた収縮画像に対して、
輪郭抽出用フィルタを用いて輪郭抽出処理を施すことに
より、収縮画像で表された部品の輪郭に応じた輪郭画像
を作成する輪郭画像作成手段、および輪郭画像作成手段
によって得られた輪郭画像に基づいて、部品の位置を算
出する位置算出手段、 を備えていることを特徴とする部品位置認識装置。
4. A component position recognizing device for recognizing a position of a component having a protruding portion, wherein a component image storage means for storing a grayscale image of the component, and a required number of pixels from the entire image stored in the component image storage means. Reduced image creating means for creating a reduced image composed of sampled data, converting means for converting the reduced image obtained by the reduced image creating means into a reduced binary image in which parts and background are separated, and converting means A contraction image creating unit for creating a contraction image in which the projecting portions of the parts are removed from the contraction binarized image by applying contraction filter processing to the contraction binarized image, For the obtained shrinkage image,
A contour image creating unit that creates a contour image according to the contour of the part represented by the contracted image by performing the contour extracting process using the contour extracting filter, and based on the contour image obtained by the contour image creating unit And a position calculating means for calculating the position of the component.
【請求項5】 輪郭抽出用フィルタは、3×3画素サイ
ズのフィルタであって、構成画素は全て異なる値を持ち
かつ各構成画素の値は、他の構成画素の値をどの様に組
み合わせて加算しても表現されない値であるものである
請求項3または4記載の部品位置認識装置。
5. The contour extraction filter is a filter having a size of 3 × 3 pixels, each constituent pixel has a different value, and the value of each constituent pixel is a combination of the values of other constituent pixels. The component position recognition device according to claim 3 or 4, wherein the value is a value that is not expressed even if added.
JP5284323A 1993-10-18 1993-10-18 Component position recognition device Expired - Fee Related JP3015641B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5284323A JP3015641B2 (en) 1993-10-18 1993-10-18 Component position recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5284323A JP3015641B2 (en) 1993-10-18 1993-10-18 Component position recognition device

Publications (2)

Publication Number Publication Date
JPH07113612A true JPH07113612A (en) 1995-05-02
JP3015641B2 JP3015641B2 (en) 2000-03-06

Family

ID=17677070

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5284323A Expired - Fee Related JP3015641B2 (en) 1993-10-18 1993-10-18 Component position recognition device

Country Status (1)

Country Link
JP (1) JP3015641B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084142A1 (en) * 2003-03-20 2004-09-30 Omron Corporation Image processing device
JP2005332375A (en) * 2004-04-19 2005-12-02 Fuji Photo Film Co Ltd Image processing method, apparatus, and program
JP2007141028A (en) * 2005-11-21 2007-06-07 Fuji Xerox Co Ltd Image analyzing device, image processor, image analyzing method, image analysis program and recording medium with the same recorded
CN100458848C (en) * 2003-03-20 2009-02-04 欧姆龙株式会社 Image processing device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004084142A1 (en) * 2003-03-20 2004-09-30 Omron Corporation Image processing device
CN100458848C (en) * 2003-03-20 2009-02-04 欧姆龙株式会社 Image processing device
US7587083B2 (en) 2003-03-20 2009-09-08 Omron Corporation Image processing device
JP2005332375A (en) * 2004-04-19 2005-12-02 Fuji Photo Film Co Ltd Image processing method, apparatus, and program
JP2007141028A (en) * 2005-11-21 2007-06-07 Fuji Xerox Co Ltd Image analyzing device, image processor, image analyzing method, image analysis program and recording medium with the same recorded

Also Published As

Publication number Publication date
JP3015641B2 (en) 2000-03-06

Similar Documents

Publication Publication Date Title
EP0041870B1 (en) Pattern position recognition apparatus
JP3015641B2 (en) Component position recognition device
JPH08136235A (en) Method for detecting pattern
JP2001175878A (en) Device and method for image feature extraction, monitor and inspection system, semiconductor exposure system, and interface system
JP4172728B2 (en) Image processing method
JP3342171B2 (en) Component position recognition method and position recognition device
JP4634250B2 (en) Image recognition method and apparatus for rectangular parts
JP3627249B2 (en) Image processing device
JP3922608B2 (en) Height measuring method and apparatus
JP3349292B2 (en) Component position recognition device
JP2983800B2 (en) Component position recognition device
WO2022059055A1 (en) Bump position data generation device
JPH01251176A (en) Pattern position recognizing device
JP2644263B2 (en) Position recognition device
JPH03120732A (en) Misregistration amount recognition device and manufacture of semiconductor device using same
JP2843389B2 (en) Bonding ball inspection device
JP4365619B2 (en) Edge detection device, component recognition device, edge detection method, and component recognition method
JP2642185B2 (en) Angle detector
JP3345496B2 (en) Electronic component position detection method
JP3384758B2 (en) Component position recognition device
CN114897966A (en) Visual identification method for large element
JPH06259554A (en) Picture outline extracting device
JPS5867033A (en) Wire bonding method
JPH104296A (en) Recognition method of electronic part insertion hole
JPH07112119B2 (en) Positioning device for electronic components

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees