JP2006108563A - Component recognizing method and apparatus thereof - Google Patents

Component recognizing method and apparatus thereof Download PDF

Info

Publication number
JP2006108563A
JP2006108563A JP2004296419A JP2004296419A JP2006108563A JP 2006108563 A JP2006108563 A JP 2006108563A JP 2004296419 A JP2004296419 A JP 2004296419A JP 2004296419 A JP2004296419 A JP 2004296419A JP 2006108563 A JP2006108563 A JP 2006108563A
Authority
JP
Japan
Prior art keywords
image
electronic component
unit
recognition
illumination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004296419A
Other languages
Japanese (ja)
Inventor
Masaru Saito
勝 斎藤
Hiroshi Anzai
洋 安西
Naoyuki Hachiman
直幸 八幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Juki Corp
Original Assignee
Juki Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Juki Corp filed Critical Juki Corp
Priority to JP2004296419A priority Critical patent/JP2006108563A/en
Publication of JP2006108563A publication Critical patent/JP2006108563A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Supply And Installment Of Electrical Components (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a component recognizing method and apparatus for recognizing components without any recognition error by executing image recognizing processes through extraction of images of the photographed electronic components, while moving the components attracted and held with nozzle without increase in luminance of the lighting with use of urea sensor. <P>SOLUTION: The component recognizing apparatus generates accurate image recognizing data by synthesizing a plurality of images photographed during chip components 18 attracted and held with the nozzle 16 are moving within the sight of a CCD camera 29, and then executing the image recognizing process through generation of images including clear difference in gradation. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、ノズルに吸着・保持された電子部品を下方から撮像して得られた画像により、電子部品の位置を画像認識する部品認識方法及び装置に関するものである。 The present invention relates to a component recognition method and apparatus for recognizing the position of an electronic component from an image obtained by imaging the electronic component sucked and held by a nozzle from below.

電子部品搭載分野において、電子部品を精度よく位置決めする方法として、画像認識を応用する方法が広く用いられている。この方法は、電子部品を撮像して得られた画像を認識することにより、電子部品の電極、エッジ部あるいは重心部などの位置を検出するものである。 In the field of electronic component mounting, a method of applying image recognition is widely used as a method for accurately positioning an electronic component. In this method, the position of an electrode, an edge portion or a center of gravity of an electronic component is detected by recognizing an image obtained by imaging the electronic component.

この画像認識による電子部品の位置検出では、電子部品をノズルで吸着・保持して撮像装置の上方に移動させて電子部品の撮像を行なう。従来より、この種の撮像装置として、例えばCCDカメラからなる2次元エリアセンサを用いたものがあった。 In the position detection of the electronic component by this image recognition, the electronic component is picked up and held by a nozzle and moved above the image pickup apparatus to image the electronic component. Conventionally, as this type of imaging apparatus, there has been one using a two-dimensional area sensor composed of a CCD camera, for example.

ところで、上記従来のものでは、電子部品の撮像のために、搭載ヘッド部の吸着ノズルで電子部品を吸着・保持して電子部品が撮像装置の上方に位置するように搭載ヘッド部を移動させて一旦停止させなければならない。従って、電子部品の撮像に必要な時間が長くなり、ひいてはタクトタイムが長くなる不具合があった。 By the way, in the above-mentioned conventional one, in order to image the electronic component, the mounting head unit is moved so that the electronic component is positioned above the imaging device by sucking and holding the electronic component with the suction nozzle of the mounting head unit. It must be stopped once. Therefore, there is a problem that the time required for imaging the electronic component becomes long and the tact time becomes long.

そこで、上記CCDカメラのような2次元エリアセンサに代えて、1次元センサとしてのラインセンサを採用することにより、電子部品を移送する途中において、ラインセンサを横切って電子部品を移動させて、電子部品の画像を一定のタイミングで取込んで、この画像データから電子部品の吸着位置を検出することにより電子部品の撮像時間の短縮化を図るようにしている(例えば、特許文献1参照)。
特開平7−263897号公報
Therefore, by adopting a line sensor as a one-dimensional sensor instead of the two-dimensional area sensor such as the CCD camera, the electronic component is moved across the line sensor while the electronic component is being transferred. An image of a component is captured at a fixed timing, and an imaging position of the electronic component is detected from the image data, thereby shortening the imaging time of the electronic component (see, for example, Patent Document 1).
JP-A-7-263897

しかしながら、エリアセンサは長手方向で一般に512画素であるのに対して、ラインセンサは長手方向一列に1000画素から7500画素と高密度に形成されている。ラインセンサを採用することにより、電子部品の撮像時間は短縮化されるものの、画素数が多いためにデータ数が多く、画像処理に時間がかかるという問題点があった。また、移動しながら撮像するために短時間で撮像することから、照明の輝度を上げる必要もあった。   However, the area sensor is generally 512 pixels in the longitudinal direction, whereas the line sensor is formed with a high density of 1000 to 7500 pixels in a line in the longitudinal direction. By adopting the line sensor, although the imaging time of the electronic component is shortened, there is a problem that the number of data is large due to the large number of pixels, and it takes time for image processing. In addition, since the image is captured in a short time in order to capture the image while moving, it is necessary to increase the luminance of the illumination.

そこで本発明は、エリアセンサを使用して照明の輝度を上げずに、ノズルに吸着・保持された電子部品を移動しながら、撮像した電子部品の画像を取込んで画像認識処理し、認識ミスのない部品認識方法及び装置を提供することを目的とする。   Therefore, the present invention uses an area sensor to move the electronic component picked up and held by the nozzle without increasing the brightness of the illumination, captures the image of the captured electronic component, performs image recognition processing, and performs a recognition error. It is an object of the present invention to provide a component recognition method and apparatus that do not have any components.

請求項1記載の発明では、電子部品をノズルの吸着面に吸着・保持した状態で、前記電子部品に光を照射して撮像し、前記電子部品の画像を画像認識処理して装着する電子部品搭載装置の部品認識方法において、前記電子部品が部品認識装置の撮像部の視野内を横切る間に、複数回にわたって前記電子部品を撮像して画像データを前記部品認識装置に取込み、前記複数の画像データを位置補正して合成し、前記合成によって得られた画像データを画像認識処理する方法を採って、前記課題を解決している。 According to the first aspect of the present invention, an electronic component is mounted by irradiating the electronic component with light while picking up and holding the electronic component on the suction surface of the nozzle and performing image recognition processing on the image of the electronic component. In the component recognition method of the mounting device, the electronic component is captured a plurality of times and image data is taken into the component recognition device while the electronic component crosses the field of view of the imaging unit of the component recognition device, and the plurality of images are captured. The above-described problem is solved by adopting a method of performing image recognition processing on the image data obtained by combining the data after correcting the position.

請求項2に記載の発明では、電子部品をノズルの吸着面に吸着・保持した状態で、前記電子部品に光を照射して撮像し、前記電子部品の画像を画像認識処理して装着する電子部品搭載装置の部品認識装置において、前記電子部品に光を照射する照明手段と、前記電子部品を撮像する撮像部と、撮像した複数画像を記憶する画像記憶部と、前記画像記憶部から画像認識処理に必要な画像データを画像ごとに抽出して記憶する抽出データ記憶部と、前記抽出データ記憶部に記憶された画像データを画像処理して画像合成用データを生成する画像認識演算部と、前記画像合成用データを合成する画像合成部と、前記画像合成部の合成された画像データを前記画像認識演算部で処理した画像認識データを転送し、あるいは前記撮像部を制御する制御部とから構成して、前記課題を解決している。 According to the second aspect of the present invention, the electronic component is picked up by irradiating the electronic component with light in a state where the electronic component is sucked and held on the suction surface of the nozzle, and an image of the electronic component is subjected to image recognition processing and mounted. In the component recognition device of the component mounting apparatus, an illumination unit that irradiates light to the electronic component, an imaging unit that images the electronic component, an image storage unit that stores a plurality of captured images, and image recognition from the image storage unit An extraction data storage unit that extracts and stores image data necessary for processing for each image; an image recognition calculation unit that performs image processing on the image data stored in the extraction data storage unit; An image synthesis unit that synthesizes the image synthesis data, and a control unit that transfers image recognition data obtained by processing the image data synthesized by the image synthesis unit by the image recognition calculation unit, or controls the imaging unit Constructed from, it solves the problems.

そして請求項3に記載の発明では、請求項2に記載の電子部品搭載装置の部品認識装置において、前記照明手段は同軸照明部に加えて下方照明部とサイド照明部の内の少なくとも1つからなり、前記制御部の制御に基づいて前記照明部の駆動を切り替える照明切替部を有することを特徴としている。 And in invention of Claim 3, in the components recognition apparatus of the electronic component mounting apparatus of Claim 2, in addition to a coaxial illumination part, the said illumination means is from at least one of a downward illumination part and a side illumination part. And having an illumination switching unit that switches driving of the illumination unit based on the control of the control unit.

本発明の電子部品搭載装置における部品認識方法及び装置によれば、部品認識装置の上方視野内をノズルに吸着・保持した電子部品(例えばチップ部品)を停止することなく移動しつつ撮像するので撮像時間を低減することができる。そして、移動しつつ複数回撮像して各画像に対して電子部品の像が画像枠の中心部となるように電子部品の像の位置補正を行なう。さらに、位置補正した画像を合成する。すなわち、各画像のピクセル値を合計した1つの画像を生成する。電子部品を移動中に撮像するために、ぶれの無いように短時間で撮像するから階調差の少ない暗い画像となるが、複数の画像を合成することによって階調差のはっきりした画像を生成して画像認識処理を行なうから、画像認識を精度良く行なうことができる。すなわち、撮像時間を低減しつつ、画像認識ミスを大幅に消滅させて画像認識データを生成することができる。   According to the component recognition method and apparatus in the electronic component mounting apparatus of the present invention, the electronic component (for example, a chip component) sucked and held by the nozzle in the upper visual field of the component recognition device is imaged while moving without stopping. Time can be reduced. Then, the position of the image of the electronic component is corrected so that the image of the electronic component is located at the center of the image frame for each image by moving the image a plurality of times. Further, the position-corrected image is synthesized. That is, one image is generated by summing up the pixel values of each image. In order to capture images while moving electronic parts, images are captured in a short time so that there is no blurring, resulting in a dark image with little gradation difference, but by generating multiple images, an image with a clear gradation difference is generated. Since the image recognition process is performed, the image recognition can be performed with high accuracy. In other words, it is possible to generate image recognition data while greatly reducing image recognition errors while reducing imaging time.

更に、同軸照明部に加えて下方照明部やサイド照明部の複数の照明部を備えるから、撮像部(例えがCCDカメラ)の視野の中央付近に電子部品が位置するときは同軸照明部と下方照明部で照明し、撮像部の視野の中央から外れて電子部品が位置するときは同軸照明部とサイド照明部、あるいは下方照明部とサイド照明部で照明して撮像するというように、適した条件で照明をして撮像できるから画像認識ミスを低減できる。   Furthermore, in addition to the coaxial illumination unit, a plurality of illumination units such as a lower illumination unit and a side illumination unit are provided, so that when the electronic component is located near the center of the field of view of the imaging unit (e.g., CCD camera), the coaxial illumination unit and the lower part It is suitable to illuminate with the illumination unit and illuminate with the coaxial illumination unit and the side illumination unit or the lower illumination unit and the side illumination unit when the electronic component is located outside the center of the field of view of the imaging unit Image recognition mistakes can be reduced because images can be taken with illumination under conditions.

以下、本発明の一実施の形態を図面を参照して説明する。図1は本発明の一実施の形態である部品認識装置が組み込まれた電子部品搭載装置の斜視図である。図2は撮像時における電子部品と撮像部の位置関係を示す図、図3は電子部品の複数の画像とこれを合成するための説明図、図4は撮像部に対するノズル移動の補正を示す図、図5は部品認識装置の照明手段の図、図6は部品認識装置のシステム構成を示すブロック図、図7は画像処理を利用した部品認識装置の動作を示すフローチャートである。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a perspective view of an electronic component mounting apparatus in which a component recognition device according to an embodiment of the present invention is incorporated. 2 is a diagram showing the positional relationship between the electronic component and the imaging unit at the time of imaging, FIG. 3 is an explanatory diagram for synthesizing a plurality of images of the electronic component, and FIG. 4 is a diagram showing correction of nozzle movement with respect to the imaging unit. FIG. 5 is a diagram of illumination means of the component recognition device, FIG. 6 is a block diagram showing the system configuration of the component recognition device, and FIG. 7 is a flowchart showing the operation of the component recognition device using image processing.

まず、図1を参照して電子部品搭載装置10の全体構造を説明する。図1において、13は基板搬送装置である。基板搬送装置13の中央部付近には、基板搬送装置13によって搬送された基板19が保持されている。搭載ヘッド部11はXY移送部12に支持されており水平移動可能である。搭載ヘッド部11には、電子部品(チップ部品)18を吸着・保持するノズル16が複数配設されている。搭載ヘッド部11はそのノズル16の下端部に電子部品供給装置(フィーダ)14の電子部品供給位置に供給されるチップ部品18を真空吸着して部品認識装置15の上部へXY移動する。部品認識装置15は上部を移動中のチップ部品18の下面を複数回撮像し、画像認識処理により吸着・保持したチップ部品18の吸着ずれ量(XY誤差、角度誤差)を演算して、基板19の正規搭載位置に対する位置補正を行って基板19に搭載する。   First, the entire structure of the electronic component mounting apparatus 10 will be described with reference to FIG. In FIG. 1, reference numeral 13 denotes a substrate transfer device. A substrate 19 transported by the substrate transport device 13 is held near the center of the substrate transport device 13. The mounting head unit 11 is supported by the XY transfer unit 12 and can move horizontally. The mounting head portion 11 is provided with a plurality of nozzles 16 for sucking and holding electronic components (chip components) 18. The mounting head portion 11 vacuum-sucks the chip component 18 supplied to the electronic component supply position of the electronic component supply device (feeder) 14 to the lower end portion of the nozzle 16 and moves it XY to the upper portion of the component recognition device 15. The component recognizing device 15 images the lower surface of the chip component 18 moving on the upper surface a plurality of times, calculates the suction displacement amount (XY error, angle error) of the chip component 18 sucked and held by the image recognition process, and the board 19 The position is corrected with respect to the regular mounting position and mounted on the substrate 19.

図2と図3を参照して撮像の位置関係と撮像した画像について説明する。図2において16はノズル、18はチップ部品、29は撮像部としてのCCDカメラ、CLはCCDカメラの視野中心である。図2(a)、図2(b)、図2(c)の順番でチップ部品18を撮像する。すなわち、ノズル16でチップ部品18を吸着・保持して移動しつつCCDカメラ29の視野中心CLから長さL1手前の位置で撮像し、次に視野中心CLの位置で撮像し、そして視野中心CLから長さL2通り過ぎた位置で撮像する。実施例ではL1=L2=10mmとしている。   With reference to FIG. 2 and FIG. 3, the positional relationship of imaging and the captured image will be described. In FIG. 2, 16 is a nozzle, 18 is a chip component, 29 is a CCD camera as an imaging unit, and CL is the center of the visual field of the CCD camera. The chip components 18 are imaged in the order of FIG. 2A, FIG. 2B, and FIG. That is, the nozzle component 16 picks up and holds the chip component 18 while moving while picking up an image at a position in front of the visual field center CL of the CCD camera 29 by a length L1, and then picking up an image at the position of the visual field center CL. An image is taken at a position that is a length L2 past from the position. In the embodiment, L1 = L2 = 10 mm.

図3において30はCCDカメラ29で撮像された画面の範囲を示す画像枠でありCCDカメラ29の視野に相当する。30aは画像枠30内で画像処理する範囲を示す検出枠である。図2(a)で撮像された画像が図3(a)であり18aはチップ部品18の像を示し、図2(b)で撮像された画像が図3(b)であり18bはチップ部品18の像を示し、図2(c)で撮像された画像が図3(c)であり18cはチップ部品18の像を示すものである。   In FIG. 3, 30 is an image frame indicating the range of the screen imaged by the CCD camera 29 and corresponds to the field of view of the CCD camera 29. Reference numeral 30a denotes a detection frame indicating the range of image processing within the image frame 30. The image captured in FIG. 2 (a) is FIG. 3 (a) and 18a shows an image of the chip component 18, and the image captured in FIG. 2 (b) is FIG. 3 (b) and 18b is the chip component. FIG. 3C shows an image of 18, and FIG. 3C shows an image taken in FIG. 2C, and 18 c shows an image of the chip component 18.

更に、図4を用いて画像の合成について説明する。図4において30は画像枠であり、16a、16b、16cはノズル16の吸着面の像であり、紙面の左右方向をX軸、紙面の前後方向をY軸とする。まず、予めノズル16の移動軌跡を捉えるためにノズル16の吸着面の像を撮像する。チップ部品18を吸着せずに、図2(a)、図2(b)、図2(c)の各位置でノズル16の吸着面を撮像する。図4の16a、16b、16cは前記各位置でのノズル16の吸着面の像に該当し、各々個別の画像枠30で映し出される像であるが、便宜上1つの画像枠30で表している。ノズル16の吸着面の撮像にあたって、良好な画像を得るためには各位置で停止して撮像するのが望ましく、また、ノズル16の吸着面に白色の治具を取付けても良い。   Further, image composition will be described with reference to FIG. In FIG. 4, 30 is an image frame, 16a, 16b, and 16c are images of the suction surface of the nozzle 16. The left-right direction of the paper surface is the X axis and the front-back direction of the paper surface is the Y axis. First, an image of the suction surface of the nozzle 16 is captured in advance in order to capture the movement locus of the nozzle 16. The suction surface of the nozzle 16 is imaged at each position in FIGS. 2A, 2 </ b> B, and 2 </ b> C without sucking the chip component 18. 4a, 16b, and 16c correspond to images of the suction surface of the nozzle 16 at each position, and are images displayed in the individual image frames 30, but are represented by one image frame 30 for convenience. When imaging the suction surface of the nozzle 16, it is desirable to stop and image at each position in order to obtain a good image, and a white jig may be attached to the suction surface of the nozzle 16.

次に、16a、16b、16cの重心位置16a(Xa,Ya)、16b(Xb,Yb)、16c(Xc,Yc)を画像認識処理によって演算し、この3つの重心を通る近似直線Lを求めてX軸方向への傾きθを算出する。ここで、後述する画像の合成について前記重心位置の合成を例にして説明する。重心16aを重心16bに、重心16cを重心16bに位置を合わせるには下記の関係式となる。
16b(Xb,Yb)
=16a(Xa+L1,Ya+L1*tanθ)
=16c(Xc−L2,Yc−L2*tanθ)
なお、画像処理にあたっては、設定された視野サイズにおいて1画素あたりの像の大きさ(mm/画素)を予め求めておく必要がある。これにより、画像の位置や角度を変換する場合は、画素を単位として座標変換によって行なうことが一般に行なわれている。
Next, centroid positions 16a (Xa, Ya), 16b (Xb, Yb), 16c (Xc, Yc) of 16a, 16b, and 16c are calculated by image recognition processing, and an approximate straight line L that passes through these three centroids is obtained. Thus, the inclination θ in the X-axis direction is calculated. Here, the composition of the image, which will be described later, will be described with reference to the composition of the center of gravity. The following relational expression is used to align the center of gravity 16a with the center of gravity 16b and the center of gravity 16c with the center of gravity 16b.
16b (Xb, Yb)
= 16a (Xa + L1, Ya + L1 * tan θ)
= 16c (Xc-L2, Yc-L2 * tan θ)
In the image processing, it is necessary to obtain in advance the image size (mm / pixel) per pixel in the set visual field size. Thereby, when converting the position and angle of an image, it is generally performed by coordinate conversion in units of pixels.

ここで、画像の合成を行なうが単純に画像枠30を重ねただけでは図3(d)の状態となってしまうから、前述の座標変換を行なう。図3(a)において、検出枠30aの中心が図4の重心16aとなるように検出枠30aを設定し、検出枠30aの中心と画像枠30の中心が一致するように検出枠30a内のピクセルデータに対して座標変換を行う。同様に、図3(b)において、検出枠30aの中心が図4の重心16bとなるように検出枠30aを設定し、検出枠30aの中心と画像枠30の中心が一致するように検出枠30a内のピクセルデータに対して座標変換を行い、更に、図3(c)についても検出枠30aの中心が図4の重心16cとなるように検出枠30aを設定し、検出枠30aの中心と画像枠30の中心が一致するように検出枠30a内のピクセルデータに対して座標変換を行なう。   Here, the images are synthesized. However, if the image frames 30 are simply overlapped, the state shown in FIG. In FIG. 3A, the detection frame 30a is set so that the center of the detection frame 30a becomes the center of gravity 16a of FIG. 4, and the center of the detection frame 30a and the center of the image frame 30 are aligned. Perform coordinate transformation on pixel data. Similarly, in FIG. 3B, the detection frame 30a is set so that the center of the detection frame 30a becomes the center of gravity 16b of FIG. 4, and the detection frame 30a and the center of the image frame 30 coincide with each other. Further, coordinate conversion is performed on the pixel data in the pixel 30a, and the detection frame 30a is set so that the center of the detection frame 30a is the center of gravity 16c in FIG. Coordinate conversion is performed on the pixel data in the detection frame 30a so that the centers of the image frames 30 match.

以上の処理から、座標変換後の1つの座標において3つのピクセル値を取得できるから、各座標において3つのピクセル値を合計してその座標のピクセル値とする計算を検出枠30a内の座標の全てに対して行なって合成した1つの画像を生成する。図3(e)は合成した画像であり、図中18dは合成後のチップ部品18の像である。これにより階調差の大きい画像データを得ることができる。例えば低いピクセル値35、高いピクセル値60の階調差は25であり、これを3つ合成すると階調差75の画像データを得ることができる。なお、ピクセル値は8ビットで標記されるから、0から255の値であるが画像合成で255を越えるピクセル値となる場合は、合成後の最大ピクセル値から255を減算して、その1/3の値を合成前の画像データのピクセル値から一律に減算した後に画像の合成を行なえばよい。   From the above processing, three pixel values can be acquired at one coordinate after coordinate conversion. Therefore, the calculation of adding the three pixel values at each coordinate to obtain the pixel value of the coordinate is performed on all the coordinates in the detection frame 30a. To generate one synthesized image. FIG. 3E shows a synthesized image. In the figure, 18d is an image of the chip component 18 after synthesis. Thereby, image data having a large gradation difference can be obtained. For example, the gradation difference between the low pixel value 35 and the high pixel value 60 is 25, and by combining these three, image data with a gradation difference of 75 can be obtained. Since the pixel value is represented by 8 bits, if the pixel value is from 0 to 255 but exceeds 255 in the image composition, 255 is subtracted from the maximum pixel value after composition, and 1 / The image may be synthesized after the value of 3 is uniformly subtracted from the pixel value of the image data before synthesis.

上記の階調差の大きい画像データを用いて画像認識処理を行なって画像認識データを生成する。すなわち、チップ部品18の重心とXY方向に対する傾きを求める。そして、ノズル16の中心は検出枠30aの中心であるからチップ部品18の吸着ずれ量(XY誤差、角度誤差)を演算する。   Image recognition processing is performed using the image data having a large gradation difference, and image recognition data is generated. That is, the center of gravity of the chip component 18 and the inclination with respect to the XY direction are obtained. Since the center of the nozzle 16 is the center of the detection frame 30a, the amount of suction deviation (XY error, angle error) of the chip component 18 is calculated.

ここで、図5を参照して部品認識装置15の照明手段20の構成を説明する。図5には同軸照明部23と下方照明部25とサイド照明部27からなる照明手段20が図示されている。同軸照明部23には複数のLED21が2次元(平面)に配列され、LED21の配列面が垂直となるように垂直な平板である枠体22に取付けられている。図において枠体22は左右に記載されているが、前後にも配置されて照明部を囲うように構成されている。同軸照明部23の投光面には均一な照明光を形成するための拡散板24が配置されている。枠体22で囲う空間の垂直中心線と同軸照明部23の水平方向中心線の交点部に同軸照明部23に対して45度の角度をなすようにハーフミラー28が配置されている。拡散板24を通過した照明光はハーフミラー28により上方に反射され、ノズル16に吸着・保持されたチップ部品18に真下から光を照射する。そしてチップ部品18によって下方に反射した光はハーフミラー28を透過してCCDカメラ29によってチップ部品18が撮像される。 Here, the structure of the illumination means 20 of the component recognition apparatus 15 is demonstrated with reference to FIG. FIG. 5 shows the illumination means 20 including the coaxial illumination unit 23, the lower illumination unit 25, and the side illumination unit 27. A plurality of LEDs 21 are two-dimensionally (planar) arranged in the coaxial illumination unit 23 and attached to a frame 22 that is a vertical flat plate so that the arrangement surface of the LEDs 21 is vertical. In the figure, the frame body 22 is shown on the left and right, but is also arranged on the front and rear sides to surround the illumination unit. A diffusion plate 24 for forming uniform illumination light is disposed on the light projecting surface of the coaxial illumination unit 23. A half mirror 28 is disposed at an intersection of the vertical center line of the space surrounded by the frame 22 and the horizontal center line of the coaxial illumination unit 23 so as to form an angle of 45 degrees with respect to the coaxial illumination unit 23. The illumination light that has passed through the diffusion plate 24 is reflected upward by the half mirror 28 and irradiates the chip component 18 adsorbed and held by the nozzle 16 from directly below. The light reflected downward by the chip component 18 passes through the half mirror 28 and is imaged by the CCD camera 29.

下方照明部25には複数のLED21が2次元(平面)に配列され、同軸照明部23より上部にLED21の配列面が水平となるように枠体22に取付けられている。図において下方照明部25は左右に記載されているが、前後にも配置されて照明部を囲うように構成されている。なお各下方照明部25の内側縁部(枠体22に近い縁部と逆側)はCCDカメラ29の視野に入らない大きさとなっている。下方照明部25の上面には均一な照明光を形成するための拡散板26が配置され、拡散板2を通過した照明光はノズル16に吸着保持されたチップ部品18に斜め下方から光を照射する。そしてチップ部品18によって下方に反射した光はハーフミラー28を透過してCCDカメラ29によってチップ部品18が撮像される。 A plurality of LEDs 21 are two-dimensionally (planar) arranged in the lower illumination unit 25, and are attached to the frame body 22 so that the arrangement surface of the LEDs 21 is horizontal above the coaxial illumination unit 23. In the drawing, the lower illumination unit 25 is shown on the left and right, but is also arranged on the front and rear sides so as to surround the illumination unit. It should be noted that the inner edge of each lower illumination section 25 (on the opposite side to the edge close to the frame 22) has a size that does not enter the visual field of the CCD camera 29. A diffusion plate 26 for forming uniform illumination light is disposed on the upper surface of the lower illumination unit 25, and the illumination light that has passed through the diffusion plate 2 irradiates the chip component 18 held by suction with the nozzle 16 obliquely from below. To do. The light reflected downward by the chip component 18 passes through the half mirror 28 and is imaged by the CCD camera 29.

サイド照明部27には複数のLED21が2次元(平面)に配列され、下方照明部25より上部にLED21の配列面が垂直となるように枠体22に取付けられている。図においてサイド照明部27は左右に記載されているが、前後にも配置されて照明部を囲うように構成されている。なおサイド照明部27は下方照明25の照明の妨げとならないように下方照明25のLED21の配列の外側(枠体22に近い側)に配置されている。照明光はノズル16に吸着保持されたチップ部品18に斜め下側方から光を照射する。そしてチップ部品18によって下方に反射した光はハーフミラー28を透過してCCDカメラ29によってチップ部品18が撮像される。 A plurality of LEDs 21 are arrayed two-dimensionally (planar) in the side illumination section 27 and are attached to the frame body 22 so that the array plane of the LEDs 21 is vertical above the lower illumination section 25. Although the side illumination unit 27 is shown on the left and right in the figure, it is also arranged on the front and back sides to surround the illumination unit. In addition, the side illumination part 27 is arrange | positioned on the outer side (side near the frame 22) of the arrangement | sequence of LED21 of the downward illumination 25 so that the illumination of the downward illumination 25 may not be prevented. The illumination light irradiates the chip component 18 held by suction with the nozzle 16 from obliquely below. The light reflected downward by the chip component 18 passes through the half mirror 28 and is imaged by the CCD camera 29.

次に、図6を参照して、部品認識装置15の制御系の構成を説明する。図6において、CCDカメラ29はチップ部品18を撮像し、画像データをA/D変換部31を経て画像記憶部32に送る。画像記憶部32は、A/D変換された画像データを記憶する。そして画像認識処理時間を短縮するために画像処理する部分のデータ(検出枠30a内のデータ:図3参照)を画像記憶部32から抽出して抽出データ記憶部33に記憶する。 Next, the configuration of the control system of the component recognition device 15 will be described with reference to FIG. In FIG. 6, the CCD camera 29 images the chip component 18 and sends the image data to the image storage unit 32 via the A / D conversion unit 31. The image storage unit 32 stores the A / D converted image data. Then, in order to shorten the image recognition processing time, the data of the portion to be subjected to image processing (data in the detection frame 30a: see FIG. 3) is extracted from the image storage unit 32 and stored in the extracted data storage unit 33.

画像認識演算部34は抽出データ記憶部33に記憶した画像データを座標変換して画像合成部35に転送する。また、画像合成部35を作業領域として使用し、前記複数の座標変換後の画像データを合成して画像合成部35内に合成画像を生成する。さらに、画像合成部35から前記合成画像を受け取り、画像認識処理を行なってチップ部品の電極、エッジ部あるいは重心部などの位置と角度を検出して吸着誤差を計算する。。画像認識処理はパターンマッチングによる方法、2値化による方法など部品の種類や大きさに応じてあらかじめ指定された方法で行う。   The image recognition calculation unit 34 performs coordinate conversion on the image data stored in the extracted data storage unit 33 and transfers the image data to the image composition unit 35. Also, the image composition unit 35 is used as a work area, and the plurality of coordinate-converted image data are synthesized to generate a composite image in the image composition unit 35. Further, the composite image is received from the image composition unit 35, and image recognition processing is performed to detect the position and angle of the electrode, edge portion, or center of gravity of the chip component, and calculate the suction error. . The image recognition process is performed by a method specified in advance according to the type and size of the component, such as a pattern matching method or a binarization method.

画像合成部35は前記したように画像認識演算部34で計算した座標変換後の複数の画像データを受け取り、画像認識演算部34によって座標変換後の複数の画像データの合成画像が内部に生成される。合成画像のピクセル値が255を越えて飽和した場合は合成画像は破棄されて、ピクセル値を下げた画像データを用いて再度合成画像が内部に生成される。   The image composition unit 35 receives the plurality of image data after the coordinate conversion calculated by the image recognition calculation unit 34 as described above, and the image recognition calculation unit 34 internally generates a composite image of the plurality of image data after the coordinate conversion. The When the pixel value of the composite image exceeds 255, the composite image is discarded, and a composite image is generated inside again using the image data with the pixel value lowered.

制御部36は部品認識装置15全体の制御を行う部分であるが、本発明に係わる点について説明をする。制御部36は撮像時に照明切替の制御信号とトリガーTを送出して撮像を行なう。すなわち、図2の(a)、(b)、(c)の各撮像位置に対応して照明切替部37に照明切替の制御信号を転送してチップ部品18に照明光を照射するとともにトリガーTa、Tb、TcをCCDカメラ29に送出してシャッタを開いて撮像し画像の取込を行なう。また、吸着位置と角度の誤差などの画像認識データを画像認識演算部34から取得して電子部品搭載装置10の主制御部38に転送する。 The control unit 36 is a part that controls the entire component recognition apparatus 15, and the points related to the present invention will be described. The controller 36 performs imaging by sending a control signal for switching illumination and a trigger T during imaging. That is, the illumination switching control signal is transferred to the illumination switching unit 37 corresponding to each imaging position in FIGS. 2A, 2B, and 2C to irradiate the chip component 18 with illumination light and trigger Ta. , Tb, Tc are sent to the CCD camera 29, and the shutter is opened to capture an image. Further, the image recognition data such as the error between the suction position and the angle is acquired from the image recognition calculation unit 34 and transferred to the main control unit 38 of the electronic component mounting apparatus 10.

照明切替部37は制御部36の制御信号に基づいて同軸照明部23、下方照明部25、サイド照明部27のいずれかを作動させて照明したり、組合せ作動させて照明したり、照明の輝度を下げて作動させて照明したりさせる。   Based on the control signal of the control unit 36, the illumination switching unit 37 operates any one of the coaxial illumination unit 23, the lower illumination unit 25, and the side illumination unit 27 to perform illumination, or performs illumination by combining the illuminations. Lower the to activate and illuminate.

部品認識装置15の構成は上記のように成り、以下その動作について説明する。図7においてスタートから、搭載ヘッド部11はチップ部品18をノズル16に吸着・保持してチップ部品18が部品認識装置15の上方(CCDカメラ29の視野)を横切るようにXY移動する(ST1)。   The configuration of the component recognition device 15 is as described above, and the operation thereof will be described below. In FIG. 7, from the start, the mounting head unit 11 sucks and holds the chip component 18 on the nozzle 16 and moves XY so that the chip component 18 crosses over the component recognition device 15 (field of view of the CCD camera 29) (ST1). .

制御部36は照明切替部37に信号を送出して下方照明部25を動作させて照明光を照射して、図2(a)のようにチップ部品18の位置がCCDカメラ29の視野の中心CLの手前の長さL1となったとき、CCDカメラ29にトリガーTaを創出してチップ部品18を撮像し、画像データをA/D変換部31を介して画像記憶部32に取込む(ST2)。   The control unit 36 sends a signal to the illumination switching unit 37 to operate the lower illumination unit 25 to irradiate illumination light, and the position of the chip component 18 is the center of the visual field of the CCD camera 29 as shown in FIG. When the length L1 before CL is reached, a trigger Ta is created in the CCD camera 29 to image the chip component 18, and the image data is taken into the image storage unit 32 via the A / D conversion unit 31 (ST2). ).

制御部36は照明切替部37に信号を送出して同軸照明部23を動作させて照明光を照射して、図2(b)のようにチップ部品18の位置がCCDカメラ29の視野中心CLとなったとき、CCDカメラ29にトリガーTbを創出してチップ部品18を撮像し、画像データをA/D変換部31を介して画像記憶部32に取込む(ST3)。   The control unit 36 sends a signal to the illumination switching unit 37 to operate the coaxial illumination unit 23 to irradiate the illumination light, and the position of the chip component 18 is the visual field center CL of the CCD camera 29 as shown in FIG. Then, the trigger Tb is created in the CCD camera 29 to image the chip component 18, and the image data is taken into the image storage unit 32 via the A / D conversion unit 31 (ST3).

制御部36は照明切替部37に信号を送出して下方照明部25を動作させて照明光を照射して、図2(c)のようにチップ部品18の位置がCCDカメラ29の視野中心CLを通過して長さL2となったとき、CCDカメラ29にトリガーTcを創出してチップ部品18を撮像し、画像データをA/D変換部31を介して画像記憶部32に取込む(ST4)。   The control unit 36 sends a signal to the illumination switching unit 37 to operate the lower illumination unit 25 to irradiate illumination light, and the position of the chip component 18 is the visual field center CL of the CCD camera 29 as shown in FIG. When the length L2 is passed, the trigger Tc is created in the CCD camera 29 to image the chip part 18, and the image data is taken into the image storage unit 32 via the A / D conversion unit 31 (ST4). ).

トリガーTaで取込んだ画像に検出枠30aをかけて、検出枠30a内の画像データを抽出データ記憶部33に取込む。画像認識演算部34は抽出データ記憶部33に取込んだ画像データに対して検出枠30aの中心と画像枠30の中心が一致するように座標変換を行い、座標変換後の画像データを画像合成部35に転送する(ST5)。   The detection frame 30 a is applied to the image captured by the trigger Ta, and the image data in the detection frame 30 a is captured in the extracted data storage unit 33. The image recognition calculation unit 34 performs coordinate conversion on the image data captured in the extracted data storage unit 33 so that the center of the detection frame 30a and the center of the image frame 30 coincide with each other, and the image data after the coordinate conversion is combined with the image. The data is transferred to the unit 35 (ST5).

トリガーTbで取込んだ画像に検出枠30aをかけて、検出枠30a内の画像データを抽出データ記憶部33に取込む。画像認識演算部34は抽出データ記憶部33に取込んだ画像データに対して検出枠30aの中心と画像枠30の中心が一致するように座標変換を行い、座標変換後の画像データを画像合成部35に転送する(ST6)。   The detection frame 30 a is applied to the image captured by the trigger Tb, and the image data in the detection frame 30 a is captured in the extracted data storage unit 33. The image recognition calculation unit 34 performs coordinate conversion on the image data captured in the extracted data storage unit 33 so that the center of the detection frame 30a and the center of the image frame 30 coincide with each other, and the image data after the coordinate conversion is combined with the image. The data is transferred to the unit 35 (ST6).

トリガーTcで取込んだ画像に検出枠30aをかけて、検出枠30a内の画像データを抽出データ記憶部33に取込む。画像認識演算部34は抽出データ記憶部33に取込んだ画像データに対して検出枠30aの中心と画像枠30の中心が一致するように座標変換を行い、座標変換後の画像データを画像合成部35に転送する(ST7)。   The detection frame 30 a is applied to the image captured by the trigger Tc, and the image data in the detection frame 30 a is captured in the extracted data storage unit 33. The image recognition calculation unit 34 performs coordinate conversion on the image data captured in the extracted data storage unit 33 so that the center of the detection frame 30a and the center of the image frame 30 coincide with each other, and the image data after the coordinate conversion is combined with the image. The data is transferred to the unit 35 (ST7).

画像認識演算部34は画像合成部35の座標変換後の3つの画像データを用いて合成画像データを画像合成部35内に生成する(ST8)。次に、合成画像データのピクセル値が255以下かどうかの分岐に向かい、合成画像データのピクセル値が255を超える場合は、合成前の3つの画像データからピクセル値を一律に減算して(ST12)、再び、3つの画像の合成を行なう。   The image recognition calculation unit 34 generates composite image data in the image composition unit 35 using the three image data after the coordinate conversion of the image composition unit 35 (ST8). Next, the process proceeds to a branch on whether the pixel value of the composite image data is 255 or less. If the pixel value of the composite image data exceeds 255, the pixel value is uniformly subtracted from the three image data before the composite (ST12). ) Three images are synthesized again.

合成した画像データのピクセル値が255以下であれば、画像認識演算部34は合成した画像データを用いて画像認識処理を行い、チップ部品18の重心とXY方向に対する角度を算出し、ノズル16に対する吸着位置と角度の誤差等の画像認識データを算出する(ST10)。そして、 制御部38は電子部品搭載装置10の主制御部38に画像認識データを送出して(ST11)、終了となる。   If the pixel value of the synthesized image data is 255 or less, the image recognition calculation unit 34 performs image recognition processing using the synthesized image data, calculates the center of gravity of the chip component 18 and the angle with respect to the XY direction, and Image recognition data such as a suction position and angle error is calculated (ST10). Then, the control unit 38 sends image recognition data to the main control unit 38 of the electronic component mounting apparatus 10 (ST11), and the process ends.

以上の動作では同軸照明部23と下方照明部25の切替で説明したが、サイド照明部27を加えてチップ部品18のエッジ部が強調されるようにすることもできる。なお、照明の方法は電子部品の種類と撮像する位置によって変化するから、あらかじめ最適な照明部の選択と照明部の組合せ方法をつかんでから適用するのが好ましい。   In the above operation, the switching between the coaxial illumination unit 23 and the lower illumination unit 25 has been described. However, the side illumination unit 27 may be added to emphasize the edge portion of the chip component 18. Since the illumination method varies depending on the type of electronic component and the position where the image is taken, it is preferable to apply the method after selecting an optimal illumination unit and combining the illumination units in advance.

実施例ではチップ部品18を移動中に3回撮像して3つの画像を合成したが、2回撮像して2つの画像を合成、4回撮像して4つの画像を合成というようにCCDカメラ29への写り具合に応じて選択することが好ましい。   In the embodiment, the chip component 18 is imaged three times while moving, and three images are combined. However, the CCD camera 29 is configured such that two images are combined and two images are combined and four images are combined and four images are combined. It is preferable to select in accordance with how the image is reflected.

部品認識装置が組み込まれた電子部品搭載装置の斜視図である。It is a perspective view of the electronic component mounting apparatus with which the component recognition apparatus was integrated. 撮像時における電子部品と撮像部の位置関係を示す図である。It is a figure which shows the positional relationship of the electronic component and imaging part at the time of imaging. 電子部品の複数の画像とこれを合成するための説明図である。It is explanatory drawing for synthesize | combining this with several images of an electronic component. 撮像部に対するノズル移動の補正を示す図である。It is a figure which shows correction | amendment of the nozzle movement with respect to an imaging part. 部品認識装置の照明手段の図である。It is a figure of the illumination means of a components recognition apparatus. 部品認識装置のシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of a components recognition apparatus. 画像処理を利用した部品認識装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the components recognition apparatus using an image process.

符号の説明Explanation of symbols

10 電子部品搭載装置
11 搭載ヘッド部
12 XY移送部
13 基板搬送装置
14 電子部品供給装置
15 部品認識装置
16 ノズル
18 電子部品(チップ部品)
19 基板
20 照明手段
23 同軸照明部
25 下方照明部
27 サイド照明部
29 撮像部(CCDカメラ)
30 画像枠
30a 検出枠
31 A/D変換部
32 画像記憶部
33 抽出データ記憶部
34 画像認識演算部
35 画像合成部
36 制御部
37 照明切替部
38 主制御部
DESCRIPTION OF SYMBOLS 10 Electronic component mounting apparatus 11 Mounting head part 12 XY transfer part 13 Board | substrate conveyance apparatus 14 Electronic component supply apparatus 15 Component recognition apparatus 16 Nozzle 18 Electronic component (chip component)
19 Substrate 20 Illumination means 23 Coaxial illumination unit 25 Lower illumination unit 27 Side illumination unit 29 Imaging unit (CCD camera)
30 Image frame 30a Detection frame 31 A / D conversion unit 32 Image storage unit 33 Extracted data storage unit 34 Image recognition calculation unit 35 Image composition unit 36 Control unit 37 Illumination switching unit 38 Main control unit

Claims (3)

電子部品をノズルの吸着面に吸着・保持した状態で、前記電子部品に光を照射して撮像し、前記電子部品の画像を画像認識処理して装着する電子部品搭載装置の部品認識方法において、
前記電子部品が部品認識装置の撮像部の視野内を横切る間に、複数回にわたって前記電子部品を撮像して画像データを前記部品認識装置に取込み、前記複数の画像データを位置補正して合成し、前記合成によって得られた画像データを画像認識処理することを特徴とする電子部品搭載装置の部品認識方法。
In the component recognition method of the electronic component mounting apparatus in which the electronic component is sucked and held on the suction surface of the nozzle, the electronic component is irradiated with light and imaged, and the image of the electronic component is subjected to image recognition processing and mounted.
While the electronic component crosses the field of view of the imaging unit of the component recognition device, the electronic component is imaged a plurality of times, image data is taken into the component recognition device, and the plurality of image data are corrected and combined. A component recognition method for an electronic component mounting apparatus, wherein image recognition processing is performed on image data obtained by the synthesis.
電子部品をノズルの吸着面に吸着・保持した状態で、前記電子部品に光を照射して撮像し、前記電子部品の画像を画像認識処理して装着する電子部品搭載装置の部品認識装置において、
前記電子部品に光を照射する照明手段と、前記電子部品を撮像する撮像部と、撮像した複数画像を記憶する画像記憶部と、前記画像記憶部から画像認識処理に必要な画像データを画像ごとに抽出して記憶する抽出データ記憶部と、前記抽出データ記憶部に記憶された画像データを画像処理して画像合成用データを生成する画像認識演算部と、前記画像合成用データを合成する画像合成部と、前記画像合成部の合成された画像データを前記画像認識演算部で処理した画像認識データを転送し、あるいは前記撮像部を制御する制御部とを有することを特徴とする電子部品搭載装置の部品認識装置。
In the component recognition device of the electronic component mounting apparatus in which the electronic component is sucked and held on the suction surface of the nozzle, the electronic component is irradiated with light and imaged, and the image of the electronic component is subjected to image recognition processing and mounted.
Illumination means for irradiating light to the electronic component, an imaging unit for imaging the electronic component, an image storage unit for storing a plurality of captured images, and image data necessary for image recognition processing from the image storage unit for each image An extraction data storage unit that extracts and stores the image data, an image recognition calculation unit that performs image processing on the image data stored in the extraction data storage unit to generate image synthesis data, and an image that combines the image synthesis data Electronic component mounting comprising: a combining unit; and a control unit that transfers image recognition data obtained by processing the combined image data of the image combining unit by the image recognition calculation unit or controls the imaging unit Device recognition device.
前記照明手段は同軸照明部に加えて下方照明部とサイド照明部の内の少なくとも1つからなり、前記制御部の制御に基づいて前記照明部の駆動を切り替える照明切替部を有することを特徴とする請求項2に記載の電子部品搭載装置の部品認識装置。
In addition to the coaxial illumination unit, the illumination unit includes at least one of a lower illumination unit and a side illumination unit, and includes an illumination switching unit that switches driving of the illumination unit based on control of the control unit. The component recognition apparatus for an electronic component mounting apparatus according to claim 2.
JP2004296419A 2004-10-08 2004-10-08 Component recognizing method and apparatus thereof Pending JP2006108563A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004296419A JP2006108563A (en) 2004-10-08 2004-10-08 Component recognizing method and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004296419A JP2006108563A (en) 2004-10-08 2004-10-08 Component recognizing method and apparatus thereof

Publications (1)

Publication Number Publication Date
JP2006108563A true JP2006108563A (en) 2006-04-20

Family

ID=36377896

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004296419A Pending JP2006108563A (en) 2004-10-08 2004-10-08 Component recognizing method and apparatus thereof

Country Status (1)

Country Link
JP (1) JP2006108563A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008091711A (en) * 2006-10-03 2008-04-17 Yamaha Motor Co Ltd Illumination controller and surface mounting equipment
JP2011163766A (en) * 2010-02-04 2011-08-25 Omron Corp Image processing method and image processing system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008091711A (en) * 2006-10-03 2008-04-17 Yamaha Motor Co Ltd Illumination controller and surface mounting equipment
JP2011163766A (en) * 2010-02-04 2011-08-25 Omron Corp Image processing method and image processing system

Similar Documents

Publication Publication Date Title
JP6435099B2 (en) Electronic component mounting apparatus and electronic component mounting method
JP4838095B2 (en) Semiconductor chip mounting apparatus and mounting method
JP5562906B2 (en) Component imaging method, component imaging apparatus, and component mounting apparatus including the same
JP2011082506A (en) Device for inspecting or mounting component
JP2006108563A (en) Component recognizing method and apparatus thereof
JP6110167B2 (en) Die recognition means, die recognition method and die bonder
TWI798619B (en) Die bonding device and method for manufacturing semiconductor device
JP2013074204A (en) Component mounting apparatus and three-dimensional shape measuring apparatus
JP6836938B2 (en) Manufacturing method of die bonding equipment and semiconductor equipment
JP2006140391A (en) Component recognition device and component mounting apparatus
JP2003008294A (en) Electronic component mounter and mounting method
JP2005183643A (en) Method and device for recognizing electronic part
JP7365487B2 (en) Image correction method, imaging device and inspection device
JP4704218B2 (en) Component recognition method, apparatus and surface mounter
JP4939391B2 (en) Mounting machine
CN115799141A (en) Chip mounting device and method for manufacturing semiconductor device
JP2009206378A (en) Electronic component mounting apparatus
TW202219826A (en) Die bonding apparatus and manufacturing method for semiconductor device being applied to irradiate light from a plurality of illumination devices at the same time
JP7019065B2 (en) Production optimization system for component mounting line
CN115116922A (en) Chip mounting device and method for manufacturing semiconductor device
JP6680542B2 (en) Data processing device, mounting device, board inspection device, data processing method and program
JP2005093906A (en) Component recognition device, surface mounting apparatus mounting the same, and component test device
JP2008153511A (en) Component mounting equipment
JP2003198195A (en) Electronic component-packaging apparatus
JPH08148888A (en) Component mounting device