JP6338169B2 - Recognition apparatus, recognition method, mounting apparatus, and mounting method - Google Patents

Recognition apparatus, recognition method, mounting apparatus, and mounting method Download PDF

Info

Publication number
JP6338169B2
JP6338169B2 JP2013253359A JP2013253359A JP6338169B2 JP 6338169 B2 JP6338169 B2 JP 6338169B2 JP 2013253359 A JP2013253359 A JP 2013253359A JP 2013253359 A JP2013253359 A JP 2013253359A JP 6338169 B2 JP6338169 B2 JP 6338169B2
Authority
JP
Japan
Prior art keywords
recognition
chip
illumination
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013253359A
Other languages
Japanese (ja)
Other versions
JP2015111631A (en
Inventor
真司 上山
真司 上山
美昭 行森
美昭 行森
将人 梶並
将人 梶並
達也 石本
達也 石本
史孝 諸石
史孝 諸石
佳史 村田
佳史 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Priority to JP2013253359A priority Critical patent/JP6338169B2/en
Priority to KR1020140057098A priority patent/KR20150066424A/en
Publication of JP2015111631A publication Critical patent/JP2015111631A/en
Application granted granted Critical
Publication of JP6338169B2 publication Critical patent/JP6338169B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/08Monitoring manufacture of assemblages
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K1/00Printed circuits
    • H05K1/02Details
    • H05K1/0266Marks, test patterns or identification means
    • H05K1/0269Marks, test patterns or identification means for visual or optical inspection
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K13/00Apparatus or processes specially adapted for manufacturing or adjusting assemblages of electric components
    • H05K13/0015Orientation; Alignment; Positioning

Description

本発明は、認識装置、認識方法、実装装置及び実装方法に関する。   The present invention relates to a recognition device, a recognition method, a mounting device, and a mounting method.

半導体製品の製造の後工程に用いる装置(Die−Bonder、Mounter)では、半導体チップを搭載する際の位置推定方法として、半導体チップ上のバンプおよび基準マークを半導体チップ認識用ラインセンサで撮像し位置を推定する(例えば特許文献1参照)。   In an apparatus (Die-Bonder, Mounter) used in a post-process of manufacturing a semiconductor product, as a position estimation method for mounting a semiconductor chip, a bump and a reference mark on the semiconductor chip are imaged by a semiconductor chip recognition line sensor. Is estimated (see, for example, Patent Document 1).

この撮像の際、照明機構により、照明を半導体チップ表面および基準マークに照射することが行われる。一般に、照明機構は同軸照明と角度照明から構成されており(例えば特許文献2、3参照)、上記位置推定では、バンプおよび基準マーク両方が良好に撮像されるように光量が調整される必要がある。   During this imaging, the illumination mechanism irradiates the semiconductor chip surface and the reference mark. In general, the illumination mechanism is composed of coaxial illumination and angle illumination (see, for example, Patent Documents 2 and 3), and in the position estimation described above, it is necessary to adjust the amount of light so that both the bump and the reference mark are well imaged. is there.

特開2013−123020号公報JP 2013-123020 A 特許第4670375号公報Japanese Patent No. 4670375 特許第4381764号公報Japanese Patent No. 4381764

しかしながら、特許文献1、特許文献2等に記載されている照明機構の制御方法を用いる場合では、バンプのみを良好に撮像する照明条件と、基準マークのみを良好に撮像する照明条件が必ずしも一致しないため、良好な半導体チップの認識および位置推定の阻害要因となっていた。   However, in the case of using the control method of the illumination mechanism described in Patent Document 1, Patent Document 2, etc., the illumination condition for imaging only the bumps does not necessarily match the illumination condition for imaging only the reference marks. Therefore, it has been a hindrance to good semiconductor chip recognition and position estimation.

本発明は、上記の事情を考慮してなされたものであり、短時間で良好な半導体チップの認識および位置推定が可能となる認識装置、認識方法、実装装置及び実装方法を提供することを目的とする。   The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a recognition device, a recognition method, a mounting device, and a mounting method that enable good semiconductor chip recognition and position estimation in a short time. And

上記課題を解決するため、本発明の認識装置は、移動している認識対象物を撮像する撮像部と、前記認識対象物の主面の垂直方向から光を照射する第1の照明部と、前記主面の斜め方向から光を照射する第2の照明部と、を有し、前記撮像部により撮像を行う際に前記認識対象物を照明する照明装置と、前記撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する信号処理部と、を備えた認識装置であって、前記認識対象物を移動させるモーションコントローラからの通知信号であって、前記認識対象物にある複数の被撮像領域の切り替わりを通知する切り替わり通知信号が入力され、前記第1の照明部及び前記第2の照明部から前記主面への光の照射を、前記切り替わり通知信号に従って制御する照明コントローラを有することを特徴とする。 In order to solve the above problems, a recognition apparatus of the present invention includes an imaging unit that images a moving recognition object, a first illumination unit that irradiates light from a direction perpendicular to a main surface of the recognition object, A second illumination unit that irradiates light from an oblique direction of the main surface, and an illumination device that illuminates the recognition target when imaging by the imaging unit, and an image captured by the imaging unit A signal processing unit for recognizing the position of the recognition object based on a notification signal from a motion controller that moves the recognition object, and a plurality of signals in the recognition object notification signal switching notifying the switching of the imaging region is input, the irradiation of light to the main surface before Symbol first illumination unit and the second illumination unit, the illumination controller for controlling according to said switching information signal that it has And features.

また、本発明の他の認識装置は、前記認識対象物は半導体チップであり、前記認識対象物にある複数の被撮像領域には、基準マークが設けられる第1の領域と、バンプが吸着した第2の領域とがあり、前記照明コントローラは、前記第1の領域では、前記第1の照明部をオンさせ、前記第2の照明部をオフさせ、前記第2の領域では、前記第1の照明部をオフさせ、前記第2の照明部をオンさせる制御を前記切り替わり通知信号に従って行う、ことを特徴とする。 According to another recognition apparatus of the present invention, the recognition object is a semiconductor chip, and a plurality of areas to be imaged in the recognition object have a first area where a reference mark is provided and a bump adsorbed. A second region, and the lighting controller turns on the first lighting unit and turns off the second lighting unit in the first region, and turns on the first lighting unit in the second region. The illumination unit is turned off and the second illumination unit is turned on according to the switching notification signal .

また、本発明の実装装置は、前記認識装置による認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装することを特徴とする。 The mounting device of the present invention mounts the recognition target object on a predetermined circuit board by performing predetermined correction control related to the position and angle of the recognition target object based on the recognition result by the recognition device. And

また、本発明の認識方法は、移動している認識対象物を撮像する撮像部と、前記認識対象物の主面の垂直方向から光を照射する第1の照明部と、前記主面の斜め方向から光を照射する第2の照明部と、を有し、前記撮像部により撮像を行う際に前記認識対象物を照明する照明装置と、前記撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する信号処理部と、を持ち、前記認識対象物を移動させるモーションコントローラからの通知信号であって、前記認識対象物にある複数の被撮像領域の切り替わりを通知する切り替わり通知信号が入力される照明コントローラが、前記第1の照明部及び前記第2の照明部から前記主面への光の照射を、前記切り替わり通知信号に従って制御する、ことを特徴とする。 The recognition method of the present invention includes an imaging unit that images a moving recognition object, a first illumination unit that irradiates light from a direction perpendicular to the main surface of the recognition object, and an oblique direction of the main surface. A second illumination unit that emits light from a direction, and an illumination device that illuminates the recognition object when the imaging unit performs imaging, and the recognition target based on an image captured by the imaging unit A signal processing unit for recognizing the position of an object, and a notification signal from a motion controller that moves the object to be recognized, and a switching notification signal for notifying switching of a plurality of imaged areas in the object to be recognized lighting controllers are input is irradiated with light from the front Symbol first illumination unit and the second illumination unit to the main surface, and controls in accordance with the switching notification signal, it is characterized.

また、本発明の他の認識方法は、前記認識対象物は半導体チップであり、前記認識対象物にある複数の被撮像領域には、基準マークが設けられる第1の領域と、バンプが吸着した第2の領域とがあり、前記照明コントローラは、前記第1の領域では、前記第1の照明部をオンさせ、前記第2の照明部をオフさせ、前記第2の領域では、前記第1の照明部をオフさせ、前記第2の照明部をオンさせる制御を前記切り替わり通知信号に従って行う、ことを特徴とする。 According to another recognition method of the present invention, the recognition object is a semiconductor chip, and a plurality of areas to be imaged in the recognition object have a first area where a reference mark is provided and a bump adsorbed. A second region, and the lighting controller turns on the first lighting unit and turns off the second lighting unit in the first region, and turns on the first lighting unit in the second region. The illumination unit is turned off and the second illumination unit is turned on according to the switching notification signal .

また、本発明の実装方法は、前記認識方法による認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装することを特徴とする。 The mounting method of the present invention is characterized in that the recognition target is mounted on a predetermined circuit board by performing predetermined correction control related to the position and angle of the recognition target based on the recognition result by the recognition method. And

本発明によれば、基準マークを撮像する際の照明条件と半導体チップ上のバンプを撮像する際の照明条件とを、移動している認識対象物の撮像時刻に対してリアルタイムに変更することで、基準マークが設けられる第1の領域と、バンプが吸着した第2の領域とを、それぞれの最適な照明条件で撮像することができる。従って、本発明によれば、最適な照明条件で撮像した撮像画像に基づいて、短時間で良好な半導体チップの認識および位置推定が可能となる認識装置、認識方法、実装装置及び実装方法を提供することができる。   According to the present invention, the illumination condition when imaging the reference mark and the illumination condition when imaging the bump on the semiconductor chip are changed in real time with respect to the imaging time of the moving recognition object. The first area where the reference mark is provided and the second area where the bumps are attracted can be imaged under respective optimum illumination conditions. Therefore, according to the present invention, it is possible to provide a recognition device, a recognition method, a mounting device, and a mounting method that enable good semiconductor chip recognition and position estimation in a short time based on a captured image captured under optimal illumination conditions. can do.

本発明の一実施形態としての実装装置100の構成例を説明するための模式図である。It is a schematic diagram for demonstrating the structural example of the mounting apparatus 100 as one Embodiment of this invention. 図1に示したチップカメラ2、ズームレンズ33及びICチップ4の位置関係を模式的に示した斜視図である。2 is a perspective view schematically showing a positional relationship among a chip camera 2, a zoom lens 33, and an IC chip 4 shown in FIG. 図1に示したチップカメラ2による撮像画像の一例を説明するための模式図である。It is a schematic diagram for demonstrating an example of the picked-up image by the chip camera 2 shown in FIG. 図1に示した照明装置の構成例を説明するための模式図である。It is a schematic diagram for demonstrating the structural example of the illuminating device shown in FIG. 図1に示した実装装置100の内部構成例を説明するためのブロック図である。It is a block diagram for demonstrating the internal structural example of the mounting apparatus 100 shown in FIG. 実装装置100の動作の流れを示したフローチャートである。5 is a flowchart showing a flow of operation of the mounting apparatus 100. 図6のステップS104の処理を説明するための図である。It is a figure for demonstrating the process of step S104 of FIG. 照明装置の切り替え動作を説明するためのタイミングチャートである。It is a timing chart for demonstrating switching operation | movement of an illuminating device. 図1に示したチップカメラ2による撮像画像の例を説明するための図である。It is a figure for demonstrating the example of the picked-up image by the chip camera 2 shown in FIG.

以下、図面を参照して本発明の実施の形態について説明する。図1は、本発明の一実施形態としての実装装置100(認識装置)の構成例を説明するための模式図である。図1に示した実装装置100は、IC(Integrated Circuit)チップ4(半導体チップ)を回路基板8に実装するための装置である。実装装置100は、信号処理部1、チップカメラ2、ズームレンズ33、移動部6、モーションコントローラ61、基板ステージ7、固定台7a、プレースカメラ10、照明コントローラ51、チップカメラ用照明装置52、プレースカメラ用照明装置53等を備えている。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a schematic diagram for explaining a configuration example of a mounting apparatus 100 (recognition apparatus) as an embodiment of the present invention. A mounting apparatus 100 shown in FIG. 1 is an apparatus for mounting an IC (Integrated Circuit) chip 4 (semiconductor chip) on a circuit board 8. The mounting apparatus 100 includes a signal processing unit 1, a chip camera 2, a zoom lens 33, a moving unit 6, a motion controller 61, a substrate stage 7, a fixed base 7 a, a place camera 10, an illumination controller 51, a chip camera illumination device 52, and a place. A camera lighting device 53 and the like are provided.

信号処理部1は、チップカメラ2及びプレースカメラ10から取得した各画像信号に対して所定の認識処理を行い、その認識処理の結果やICチップ4や回路基板8の設計情報等に応じてモーションコントローラ61等を制御する。この信号処理部1は、ケーブル41を介してモーションコントローラ61と接続されている。また、信号処理部1は、ケーブル42を介してチップカメラ2と接続されている。また、信号処理部1は、ケーブル43を介してプレースカメラ10と接続されている。そして、信号処理部1は、ケーブル44を介してズームレンズ33と接続されている。   The signal processing unit 1 performs predetermined recognition processing on each image signal acquired from the chip camera 2 and the place camera 10, and performs motion according to the result of the recognition processing, design information of the IC chip 4 and the circuit board 8, and the like. The controller 61 and the like are controlled. This signal processing unit 1 is connected to a motion controller 61 via a cable 41. Further, the signal processing unit 1 is connected to the chip camera 2 via a cable 42. Further, the signal processing unit 1 is connected to the place camera 10 via a cable 43. The signal processing unit 1 is connected to the zoom lens 33 via the cable 44.

モーションコントローラ61は、モータ等を用いた駆動機構を有して構成されていて、信号処理部1の指示に従って、移動部6を矢印または丸印で示したXYZの各軸方向に移動させるとともに、XY平面上で向きθを変化させる。すなわち、移動部6は、図に向かって奥行前後方向(X方向)、左右方向(Y方向)、上下方向(Z方向)に所定の長さ移動可能であるとともに、吸着ヘッド5の向きθを所定の角度の範囲で変化させることが可能である。なお、X軸の正の向きは奥から手前への向きであり、Y及びZ軸の正の向きは矢印の向きである。   The motion controller 61 is configured to have a drive mechanism using a motor or the like, and moves the moving unit 6 in the XYZ axial directions indicated by arrows or circles in accordance with instructions from the signal processing unit 1. The direction θ is changed on the XY plane. That is, the moving unit 6 can move a predetermined length in the depth front-rear direction (X direction), left-right direction (Y direction), and vertical direction (Z direction) toward the drawing, and the direction θ of the suction head 5 can be changed. It is possible to change within a predetermined angle range. The positive direction of the X axis is the direction from the back to the front, and the positive directions of the Y and Z axes are the directions of the arrows.

また、モーションコントローラ61は、図1において不図示のエンコーダから出力されるエンコーダパルス(XYZの各軸における自身の位置を表す信号)に応じて、チップカメラ2、プレースカメラ10の撮像開始および終了タイミングとなる制御信号(後述する制御信号Trigger_C、Trigger_P)を出力する。そのため、モーションコントローラ61は、ケーブル48を介してチップカメラ2と、ケーブル49を介してプレースカメラ10と、それぞれ接続されている。また、モーションコントローラ61は、ケーブル45を介して照明コントローラ51と接続されている。また、照明コントローラ51は、ケーブル46、47を介してチップカメラ用照明装置52、プレースカメラ用照明装置53と接続されている。   In addition, the motion controller 61 starts and ends the imaging of the chip camera 2 and the place camera 10 in accordance with encoder pulses (signals representing their positions on the XYZ axes) output from an encoder (not shown) in FIG. Control signals (control signals Trigger_C and Trigger_P described later) are output. Therefore, the motion controller 61 is connected to the chip camera 2 via the cable 48 and to the place camera 10 via the cable 49. The motion controller 61 is connected to the illumination controller 51 via the cable 45. The illumination controller 51 is connected to the chip camera illumination device 52 and the place camera illumination device 53 via cables 46 and 47.

照明コントローラ51は、モーションコントローラ61がエンコーダパルスから生成した制御信号(後述する制御信号Trigger_M)に基づいて制御信号(後述する制御信号Trigger_I1、I2)を生成し、ケーブル46、47を介してチップカメラ用照明装置52、プレースカメラ用照明装置53に対して出力する。チップカメラ用照明装置52、プレースカメラ用照明装置53は、照明コントローラ51から入力される制御信号に基づいて、各照明装置による照明の開始、切り替え、照明の終了タイミングなどを制御する。   The illumination controller 51 generates a control signal (control signals Trigger_I1, I2 described later) based on a control signal (control signal Trigger_M described later) generated from the encoder pulse by the motion controller 61, and the chip camera via the cables 46, 47. Output to the lighting device 52 and the lighting device 53 for the place camera. The chip camera illumination device 52 and the place camera illumination device 53 control the start and switching of illumination by each illumination device, the illumination end timing, and the like based on a control signal input from the illumination controller 51.

移動部6は、先端部に吸着ヘッド5を有して構成されている。吸着ヘッド5は、ICチップ4を吸着する。図1では、1つの移動部6の、チップカセット3からICチップ4を吸着して持ち上げた状態(左側の移動部6)、チップカメラ2の上を通過している状態(中央の移動部6)、及び、回路基板8上に移動した状態(右側の移動部6)を同時に示している。チップカセット3、チップカメラ2、回路基板8、プレースカメラ10等は、図1に示したような位置関係を有して配置されている。   The moving unit 6 has a suction head 5 at the tip. The suction head 5 sucks the IC chip 4. In FIG. 1, a single moving unit 6 sucks and lifts the IC chip 4 from the chip cassette 3 (left moving unit 6), and passes over the chip camera 2 (central moving unit 6). ) And the state of moving onto the circuit board 8 (the moving unit 6 on the right side). The chip cassette 3, the chip camera 2, the circuit board 8, the place camera 10, and the like are arranged with the positional relationship as shown in FIG.

吸着ヘッド5は、例えば多孔質金属からなる吸着面5aを有して構成されている。吸着ヘッド5は、負圧を利用して吸着面5aにICチップ4を吸着する。また、吸着ヘッド5は、回路基板8にICチップ4を載せた状態で加熱され、ICチップ4が有する複数の半田バンプを回路基板8上の所定の接点に熱圧着する。なお、吸着面5aには、ICチップ4の吸着状態を認識する際の基準となるマークが記されている。   The suction head 5 has a suction surface 5a made of, for example, a porous metal. The suction head 5 sucks the IC chip 4 on the suction surface 5a using negative pressure. Further, the suction head 5 is heated in a state where the IC chip 4 is placed on the circuit board 8, and a plurality of solder bumps of the IC chip 4 are thermocompression bonded to predetermined contacts on the circuit board 8. The suction surface 5a is marked with a reference mark for recognizing the suction state of the IC chip 4.

チップカセット3は、複数のICチップ4を収納する容器である。チップカセット3は、上面(すなわちZ軸上向き)が開放されている。   The chip cassette 3 is a container that stores a plurality of IC chips 4. The chip cassette 3 has an open upper surface (that is, upward in the Z axis).

ICチップ4は、半導体集積回路チップである。本実施形態において、ICチップ4は、いわゆるWLCSP(Wafer Level Chip Size(またはScale) Package)と呼ばれる構造を有している。ICチップ4の裏面(図の下向きの面、すなわち吸着ヘッド5が吸着する面の反対側の面)には、複数の半田バンプが形成されている。ICチップ4は、チップカセット3に収納された状態から、吸着ヘッド5に吸着され、Z方向上側に向かって持ち上げられる。そして、ICチップ4は、Y方向に移動し、その状態でチップカメラ2の上部を通過した後、回路基板8の上部へと搬送される。   The IC chip 4 is a semiconductor integrated circuit chip. In the present embodiment, the IC chip 4 has a structure called a so-called WLCSP (Wafer Level Chip Size (or Scale) Package). A plurality of solder bumps are formed on the back surface of the IC chip 4 (the downward surface in the figure, that is, the surface opposite to the surface to which the suction head 5 sucks). The IC chip 4 is sucked by the suction head 5 from the state stored in the chip cassette 3 and lifted upward in the Z direction. Then, the IC chip 4 moves in the Y direction, passes through the upper part of the chip camera 2 in that state, and then is conveyed to the upper part of the circuit board 8.

回路基板8は、基板ステージ7上に載せられている。基板ステージ7は、固定台7aにXY方向に微調整可能に支持されている。   The circuit board 8 is placed on the substrate stage 7. The substrate stage 7 is supported on the fixed base 7a so as to be finely adjustable in the XY directions.

プレースカメラ10は、回路基板8のICチップ4が実装される面を撮像するカメラである。信号処理部1は、プレースカメラ10から取得した画像信号に基づき、ICチップ4との接続部周辺に対する位置認識処理等を行って、回路基板8の所定の基準からの位置ずれや角度ずれ量を算出する。   The place camera 10 is a camera that captures an image of the surface on which the IC chip 4 of the circuit board 8 is mounted. Based on the image signal acquired from the place camera 10, the signal processing unit 1 performs a position recognition process on the periphery of the connection part with the IC chip 4, and calculates a positional deviation and an angular deviation amount of the circuit board 8 from a predetermined reference. calculate.

チップカメラ2は、吸着ヘッド5に吸着されて移動中のICチップ4の裏面の画像を撮像し、撮像した画像信号を信号処理部1に対して出力する。このチップカメラ2は、チップカセット3の設置場所と回路基板8の設置場所との間の所定の位置に設けられている。チップカメラ2は、ズームレンズ33を介して、ICチップ4の裏面を撮像する。ズームレンズ33は、複数のレンズとレンズの移動機構とを有し、レンズ群の焦点距離を一定の範囲で任意に変化させることができ、かつ焦点面を移動させない(すなわちピントをずらさない)レンズ群である。ズームレンズ33は焦点距離を外部から入力された所定の制御信号に応じて可変する。   The chip camera 2 picks up an image of the back surface of the IC chip 4 being moved while being sucked by the suction head 5, and outputs the picked-up image signal to the signal processing unit 1. The chip camera 2 is provided at a predetermined position between the installation location of the chip cassette 3 and the installation location of the circuit board 8. The chip camera 2 images the back surface of the IC chip 4 through the zoom lens 33. The zoom lens 33 has a plurality of lenses and a lens moving mechanism, can arbitrarily change the focal length of the lens group within a certain range, and does not move the focal plane (that is, does not shift the focus). A group. The zoom lens 33 varies the focal length according to a predetermined control signal input from the outside.

信号処理部1は、所定の制御信号を、ケーブル44を介して送信することで、このズームレンズ33の焦点距離(すなわちチップカメラ2の撮像倍率)を変化させる。図2は、チップカメラ2、ズームレンズ33及びICチップ4の位置関係を模式的に示した斜視図である。なお、図1、図2等の各図面において同一の構成には同一の符号を用いている。また、図2に示したXYZの各矢印の方向が、図1に示したXYZの各軸の方向に対応している。なお、図1及び図2では、チップカメラ2とズームレンズ33とを分離した形で示しているが、チップカメラ2とズームレンズ33とは一体として構成されていてもよい。   The signal processing unit 1 transmits a predetermined control signal via the cable 44 to change the focal length of the zoom lens 33 (that is, the imaging magnification of the chip camera 2). FIG. 2 is a perspective view schematically showing the positional relationship among the chip camera 2, the zoom lens 33 and the IC chip 4. In addition, the same code | symbol is used for the same structure in each drawing, such as FIG. 1, FIG. Also, the directions of the XYZ arrows shown in FIG. 2 correspond to the directions of the XYZ axes shown in FIG. In FIGS. 1 and 2, the chip camera 2 and the zoom lens 33 are illustrated as separated from each other, but the chip camera 2 and the zoom lens 33 may be configured integrally.

チップカメラ2は、ラインセンサ21を有して構成されている。ラインセンサ21は、CMOS(Complementary Metal Oxide Semiconductor)、CCD(Conference of Committee on Disarmament)等の固体撮像素子からなる複数の撮像画素を一列、あるいは露光時間を確保するために複数列で配列することで構成されている。チップカメラ2は、ラインセンサ21を構成する各画素への入射光を光電変換した電気信号の大きさを表す値である各画素値を、所定周期で繰り返し出力する。また、このラインセンサ21は、モノクロの多値階調(すなわちグレースケール)の画像信号を出力する。   The chip camera 2 includes a line sensor 21. The line sensor 21 is configured by arranging a plurality of imaging pixels made of solid-state imaging devices such as a CMOS (Complementary Metal Oxide Semiconductor), a CCD (Conference of Committee on Disarmament), or the like in order to secure an exposure time. It is configured. The chip camera 2 repeatedly outputs each pixel value, which is a value representing the magnitude of an electrical signal obtained by photoelectric conversion of incident light to each pixel constituting the line sensor 21, at a predetermined period. The line sensor 21 outputs a monochrome multi-value gradation (that is, gray scale) image signal.

したがって、ラインセンサ21が出力する各画素の画素値は、輝度値を表している。本実施形態では、ICチップ4がその裏面、すなわち複数のバンプ4aが配列して形成されている面を下方(つまりチップカメラ2側)に向けた状態で、バンプ4aが形成されている面と反対の面(すなわち、ICチップ4の表面)が吸着ヘッド5の吸着面5aに吸着されている。チップカメラ2は、図2にICチップ移動方向として矢印で示した方向(つまりY方向)に所定速度でICチップ4が移動している状態で、ラインセンサ21の各画素の出力を所定周期で繰り返し複数回出力する。   Therefore, the pixel value of each pixel output from the line sensor 21 represents a luminance value. In the present embodiment, the back surface of the IC chip 4, that is, the surface on which the bumps 4 a are formed with the surface on which the plurality of bumps 4 a are arranged facing downward (that is, on the chip camera 2 side) The opposite surface (that is, the surface of the IC chip 4) is attracted to the suction surface 5a of the suction head 5. The chip camera 2 outputs the output of each pixel of the line sensor 21 at a predetermined cycle while the IC chip 4 is moving at a predetermined speed in the direction indicated by the arrow (that is, the Y direction) as the IC chip moving direction in FIG. Output multiple times repeatedly.

図3に、チップカメラ2による撮像画像200の一例を模式的に示した。図3では、図1に示したXYZの各軸の方向が、XYの各矢印及びZの丸印で示した方向に対応している。なお、図3で各軸の正の向きは、XYが矢印の向き、Zが手前から奥への向きである。図3に示した例では、撮像画像200が、ICチップ4の裏面全面の画像と、吸着面5aほぼ全面の画像とを含んでいる。また、1対の記号5bと、基準領域を表す線5cとは、吸着面5a上に実際に描かれているマークである。これらのマークが、ICチップ4の吸着状態(基準マークに対する相対的な吸着位置)を認識する際の基準となるマークである。ただし、記号5bと、基準線5c(これらを総称して、以下では基準マーク5mと呼ぶことがある)とは、必ずしも両方を設ける必要はない。なお、図3に示した例では、ICチップ4が、XY方向に等間隔で配列された複数のバンプ4aを有している。   FIG. 3 schematically shows an example of an image 200 captured by the chip camera 2. In FIG. 3, the directions of the XYZ axes shown in FIG. 1 correspond to the directions indicated by the XY arrows and the Z circles. In FIG. 3, the positive direction of each axis is XY as the direction of the arrow and Z as the direction from the front to the back. In the example illustrated in FIG. 3, the captured image 200 includes an image of the entire back surface of the IC chip 4 and an image of substantially the entire surface of the suction surface 5a. A pair of symbols 5b and a line 5c representing the reference region are marks actually drawn on the suction surface 5a. These marks are marks that serve as a reference when recognizing the suction state (relative suction position with respect to the reference mark) of the IC chip 4. However, it is not always necessary to provide both the symbol 5b and the reference line 5c (hereinafter collectively referred to as the reference mark 5m). In the example shown in FIG. 3, the IC chip 4 has a plurality of bumps 4a arranged at equal intervals in the XY direction.

次に、本実施形態における照明装置の構成について図面を参照して説明する。図4は、図1に示した照明装置の構成例を説明するための模式図である。図4(a)は、チップカメラ用照明装置52の構成例を、図4(b)は、プレースカメラ用照明装置53の構成例を、それぞれ示している。
チップカメラ用照明装置52は、図4(a)に示すように、チップカメラ用同軸照明52a(第1の照明部)と、チップカメラ用角度照明52b(第2の照明部)とを含んで構成される。
チップカメラ用同軸照明52aが照射する光は、チップカメラ用レンズ2a内に設けられたハーフミラー2bで反射し、ICチップ4(認識対象物)の主面(撮像するICチップ4の裏面)に垂直方向から同軸照明(Coaxial Light)として入光する。そして、ICチップ4で反射した光は、ICチップ4の主面に対して垂直方向に出射し、ハーフミラーを介してチップカメラ2に入光する。
Next, the structure of the illuminating device in this embodiment is demonstrated with reference to drawings. FIG. 4 is a schematic diagram for explaining a configuration example of the illumination device shown in FIG. 1. 4A shows a configuration example of the chip camera illumination device 52, and FIG. 4B shows a configuration example of the place camera illumination device 53.
As shown in FIG. 4A, the chip camera illumination device 52 includes a chip camera coaxial illumination 52a (first illumination unit) and a chip camera angle illumination 52b (second illumination unit). Composed.
The light emitted by the chip camera coaxial illumination 52a is reflected by the half mirror 2b provided in the chip camera lens 2a, and is reflected on the main surface of the IC chip 4 (recognition target) (the back surface of the IC chip 4 to be imaged). Incident light is incident as coaxial illumination from the vertical direction. Then, the light reflected by the IC chip 4 is emitted in a direction perpendicular to the main surface of the IC chip 4 and enters the chip camera 2 through a half mirror.

一方、チップカメラ用角度照明52bが照射する光は、ICチップ4の主面に垂直な線に対して所定の角度を有した斜め方向から入光する。そして、反射した光は、チップカメラ用角度照明52bの取り付け角度に応じて、ICチップ4の主面に対して垂直方向に出射し、ハーフミラーを介してチップカメラ2に入光する。この取り付け角度は、ICチップ4が有する半田バンプの下側(カメラ側)表面で光が反射した場合に、反射光が、ICチップ4の主面に対して垂直方向に出射するように、予め設定される。   On the other hand, the light irradiated by the chip camera angle illumination 52b enters from an oblique direction having a predetermined angle with respect to a line perpendicular to the main surface of the IC chip 4. The reflected light is emitted in a direction perpendicular to the main surface of the IC chip 4 in accordance with the mounting angle of the chip camera angle illumination 52b, and enters the chip camera 2 through the half mirror. This mounting angle is set in advance so that when light is reflected on the lower surface (camera side) of the solder bump of the IC chip 4, the reflected light is emitted in a direction perpendicular to the main surface of the IC chip 4. Is set.

すなわち、ICチップ4の撮像を行う際に、チップカメラ用同軸照明52aと、チップカメラ用角度照明52bとによる光の照射を、基準マーク5mが設けられる領域(第1の領域)と、バンプが吸着した領域(第2の領域)とで切り替えている。第1の領域と第2の領域とを撮像する際、光の照射を変更することにより、撮像の際の照明条件を基準マーク5mおよび半田バンプ各々に対して最適な条件とすることができる。   That is, when the IC chip 4 is picked up, light is emitted from the chip camera coaxial illumination 52a and the chip camera angle illumination 52b, the region where the reference mark 5m is provided (first region), and the bump. Switching is made between the adsorbed area (second area). When imaging the first area and the second area, by changing the light irradiation, the illumination condition at the time of imaging can be set to an optimum condition for each of the reference mark 5m and the solder bump.

同様に、プレースカメラ用照明装置53は、図4(b)に示すように、プレースカメラ用同軸照明53a(第1の照明部)と、プレースカメラ用角度照明53b(第2の照明部)とを含んで構成される。
プレースカメラ用同軸照明53aが照射する光は、プレースカメラ用レンズ10a内に設けられたハーフミラー10bで反射し、回路基板8の主面(ICチップ4が実装される面)に垂直方向から同軸照明として入光する。そして、回路基板8で反射した光は、回路基板8の主面に対して垂直方向に出射し、ハーフミラーを介してプレースカメラ10に入光する。
Similarly, as shown in FIG. 4B, the place camera illumination device 53 includes a place camera coaxial illumination 53a (first illumination unit) and a place camera angle illumination 53b (second illumination unit). It is comprised including.
The light emitted by the place camera coaxial illumination 53a is reflected by the half mirror 10b provided in the place camera lens 10a, and is coaxial from the vertical direction to the main surface of the circuit board 8 (the surface on which the IC chip 4 is mounted). Incident light as illumination. Then, the light reflected by the circuit board 8 is emitted in a direction perpendicular to the main surface of the circuit board 8 and enters the place camera 10 through a half mirror.

一方、プレースカメラ用角度照明53bが照射する光は、回路基板8の主面に垂直な線に対して所定の角度を有した斜め方向から入光する。そして、反射した光は、プレースカメラ用角度照明53bの取り付け角度に応じて、回路基板8の主面に対して垂直方向に出射し、ハーフミラーを介してプレースカメラ10に入光する。この取り付け角度は、回路基板8の半田ボールとの接点となる端部が有する曲面で光が反射した場合に、反射光が、回路基板8の主面に対して垂直方向に出射するように、予め設定される。   On the other hand, the light emitted by the place camera angle illumination 53 b enters from an oblique direction having a predetermined angle with respect to a line perpendicular to the main surface of the circuit board 8. The reflected light is emitted in a direction perpendicular to the main surface of the circuit board 8 in accordance with the mounting angle of the place camera angle illumination 53b, and enters the place camera 10 through the half mirror. This mounting angle is such that when light is reflected by the curved surface of the end portion that becomes a contact point with the solder ball of the circuit board 8, the reflected light is emitted in a direction perpendicular to the main surface of the circuit board 8. It is set in advance.

すなわち、回路基板8の撮像を行う際に、プレースカメラ用同軸照明53aと、プレースカメラ用角度照明53bとによる光の照射を、基準マークが設けられる領域(第1の領域)と、回路基板8におけるICチップ4を搭載する領域(第2の領域)とで切り替えている。第1の領域と第2の領域とを撮像する際、光の照射を変更することにより、撮像の際の照明条件を基準マークおよびチップ搭載予定領域各々に対して最適な条件とすることができる。   That is, when the circuit board 8 is imaged, light is emitted from the coaxial illumination 53a for the place camera and the angle illumination 53b for the place camera, the area where the reference mark is provided (first area), and the circuit board 8 In the area where the IC chip 4 is mounted (second area). When imaging the first area and the second area, by changing the light irradiation, the illumination conditions at the time of imaging can be made optimal for each of the reference mark and the chip mounting scheduled area. .

次に、図5を参照して、図1を参照して説明した実装装置100の制御動作に係る内部構成例について説明する。信号処理部1は、ホストコンピュータ11、入力部12、出力部13及び記憶部14を有している。ホストコンピュータ11は、メインメモリ11aを含み、メインメモリ11aには画像メモリ11bを含んでいる。ホストコンピュータ11は、CPU(Central Processing Unit)を内部に有し、記憶部14等に格納されている所定のプログラムを実行することで各部を制御する。入力部12は、プレースカメラ10及びチップカメラ2から、ホストコンピュータ11へ信号を入力するためのインターフェースである。入力部12へは、プレースカメラ10及びチップカメラ2から、撮像した画像を表す画像データが入力される。   Next, an example of an internal configuration related to the control operation of the mounting apparatus 100 described with reference to FIG. 1 will be described with reference to FIG. The signal processing unit 1 includes a host computer 11, an input unit 12, an output unit 13, and a storage unit 14. The host computer 11 includes a main memory 11a, and the main memory 11a includes an image memory 11b. The host computer 11 has a CPU (Central Processing Unit) inside, and controls each unit by executing a predetermined program stored in the storage unit 14 or the like. The input unit 12 is an interface for inputting signals from the place camera 10 and the chip camera 2 to the host computer 11. Image data representing captured images is input to the input unit 12 from the place camera 10 and the chip camera 2.

出力部13は、モーションコントローラ61及びズームレンズ33へ、ホストコンピュータ11から信号を出力するためのインターフェースである。出力部13からは、モーションコントローラ61に対して移動部6の位置ずれ及び角度ずれを補正制御するための補正量を表す情報(ΔX、ΔY及びΔθに対応した補正量(あるいはそれを指示する信号))が出力される。また、出力部13からは、ズームレンズ33の焦点距離を変化させるための信号が出力される。   The output unit 13 is an interface for outputting a signal from the host computer 11 to the motion controller 61 and the zoom lens 33. From the output unit 13, information indicating a correction amount for correcting and controlling the position shift and the angle shift of the moving unit 6 with respect to the motion controller 61 (a correction amount corresponding to ΔX, ΔY, and Δθ (or a signal indicating the correction amount). )) Is output. Further, the output unit 13 outputs a signal for changing the focal length of the zoom lens 33.

ここで図3を参照して位置ずれ及び角度ずれを補正するための補正量を表す情報ΔX、ΔY及びΔθについて説明する。図3において、基準点P0は、吸着ヘッド5のθ方向の回転中心に対応する点である。吸着面5a上の基準記号5bや基準線5cに基づいて基準点P0の座標値を算出することができる。中心点PcはICチップ4の中心点(あるいは重心点)に対応する点である。中心点Pcの座標は、チップカメラ2の撮像画像から認識した複数のバンプ4aの各座標値と、ICチップ4の設計値(あるいは基準となる他のICチップ4の実測値)とに基づいて算出することができる。ΔXは、基準点P0と中心点PcのX方向のずれ量を表す。ΔYは、基準点P0と中心点PcのY方向のずれ量を表す。   Here, information ΔX, ΔY, and Δθ representing correction amounts for correcting the positional deviation and the angular deviation will be described with reference to FIG. In FIG. 3, the reference point P <b> 0 is a point corresponding to the rotation center of the suction head 5 in the θ direction. The coordinate value of the reference point P0 can be calculated based on the reference symbol 5b and the reference line 5c on the suction surface 5a. The center point Pc is a point corresponding to the center point (or centroid point) of the IC chip 4. The coordinates of the center point Pc are based on the coordinate values of the plurality of bumps 4a recognized from the captured image of the chip camera 2 and the design value of the IC chip 4 (or the actual measurement value of the other IC chip 4 serving as a reference). Can be calculated. ΔX represents the amount of deviation in the X direction between the reference point P0 and the center point Pc. ΔY represents the amount of deviation in the Y direction between the reference point P0 and the center point Pc.

ΔXとΔYは、基準点P0と中心点Pcの各座標値の偏差として算出される。そして、Δθは、ICチップ4の基準とする向きと、実際の向きとの差分として算出される。Δθは、チップカメラ2の撮像画像から認識した複数のバンプ4aの各座標値と、各バンプ4aの座標及び配列関係の設計値(あるいは基準となる他のICチップ4の実測値)とに基づいて算出することができる。   ΔX and ΔY are calculated as deviations of the coordinate values of the reference point P0 and the center point Pc. Δθ is calculated as a difference between the reference orientation of the IC chip 4 and the actual orientation. Δθ is based on the coordinate values of the plurality of bumps 4a recognized from the captured image of the chip camera 2, and the design values of the coordinates and arrangement relation of the bumps 4a (or the actual measurement values of other IC chips 4 serving as a reference). Can be calculated.

図5に戻って、記憶部14は、例えば不揮発メモリであり、チップカセット3、ICチップ4、回路基板8等の設計情報14aと、ズームレンズ33の焦点距離を指示する際に用いられる情報である焦点距離制御情報などとを記憶している。この焦点距離制御情報は、例えば、ICチップ4の識別番号と、チップカメラ2の仕様を表す情報と、設定する焦点距離との対応関係を記憶したテーブルとして構成されている。   Returning to FIG. 5, the storage unit 14 is, for example, a non-volatile memory, and is information used for designating the design information 14 a of the chip cassette 3, the IC chip 4, the circuit board 8, and the like and the focal length of the zoom lens 33. Some focal length control information and the like are stored. This focal length control information is configured, for example, as a table that stores the correspondence between the identification number of the IC chip 4, information indicating the specifications of the chip camera 2, and the focal length to be set.

なお、図1には示していないが、上記の構成のほか、信号処理部1は、例えば、プレースカメラ10やチップカメラ2へ所定の制御信号を送信するためのインターフェースや、モーションコントローラ61から所定の制御信号を受信するためのインターフェースを含んでいる。また、記憶部14は、モーションコントローラ61の制御の制御を行う際に必要な情報等も記憶している。なお、設計情報14aは、チップカセット3、ICチップ4、回路基板8等の外形、基準マーク、各接続端子等の形状や位置を表す情報、熱圧着時の設定値等を含むことができる。なお、設計情報は、図面上の設計値に限らず、例えば基準となる実際のICチップ4の実測値等であってもよい。   Although not shown in FIG. 1, in addition to the above configuration, the signal processing unit 1 is, for example, an interface for transmitting a predetermined control signal to the place camera 10 or the chip camera 2 or a predetermined amount from the motion controller 61. Including an interface for receiving the control signal. The storage unit 14 also stores information necessary for controlling the motion controller 61. The design information 14a can include information indicating the outer shape of the chip cassette 3, the IC chip 4, the circuit board 8, etc., the reference mark, the shape and position of each connection terminal, the set value at the time of thermocompression bonding, and the like. The design information is not limited to the design value on the drawing, but may be, for example, an actual measurement value of the actual IC chip 4 serving as a reference.

また、チップカメラ2は、ラインセンサ21、A/D変換器(アナログ・デジタル変換器)22及び出力部23を有している。A/D変換器22は、ラインセンサ21から出力された各画素のアナログの画素値をデジタル信号に変換する。出力部23は、A/D変換器22が出力したデジタル信号列を所定形式のデジタル画像信号に変換して出力する。この出力部23が出力した画像信号は、入力部12を介して、例えばDMA(Direct Memory Access)方式によって画像メモリ11bに直接記憶される。   The chip camera 2 includes a line sensor 21, an A / D converter (analog / digital converter) 22, and an output unit 23. The A / D converter 22 converts the analog pixel value of each pixel output from the line sensor 21 into a digital signal. The output unit 23 converts the digital signal sequence output from the A / D converter 22 into a digital image signal having a predetermined format and outputs the digital image signal. The image signal output from the output unit 23 is directly stored in the image memory 11b via the input unit 12 by, for example, a DMA (Direct Memory Access) method.

また、図5に示すように、モーションコントローラ61は、チップカメラ2、プレースカメラ10と、それぞれケーブル48、49により接続される。モーションコントローラ61はエンコーダパルスが示す自身の位置に対応して、基準マーク5mが設けられる領域とバンプが吸着した領域とが、チップカメラ2による撮像範囲にある期間、制御信号Trigger_Cをチップカメラ2に送信する。これにより、チップカメラ2は、基準マーク5mが設けられる領域とバンプが吸着した領域の撮像を開始し、制御信号Trigger_Cが入力されている期間が経過したのち、撮像を終了する。   Further, as shown in FIG. 5, the motion controller 61 is connected to the chip camera 2 and the place camera 10 by cables 48 and 49, respectively. The motion controller 61 sends the control signal Trigger_C to the chip camera 2 during a period in which the area where the reference mark 5m is provided and the area where the bumps are attracted are within the imaging range of the chip camera 2 corresponding to the position indicated by the encoder pulse. Send. As a result, the chip camera 2 starts imaging the area where the reference mark 5m is provided and the area where the bumps are attracted, and ends imaging after the period during which the control signal Trigger_C is input.

モーションコントローラ61は、エンコーダパルスが示す自身の位置に対応して、基準マークが設けられる領域と回路基板8におけるICチップ4を搭載する領域とが、プレースカメラ10による撮像範囲にある期間、制御信号Trigger_Pをプレースカメラ10に送信する。これにより、プレースカメラ10は、基準マークが設けられる領域と回路基板8におけるICチップ4を搭載する領域の撮像を開始し、制御信号Trigger_Pが入力されている期間が経過したのち、撮像を終了する。   The motion controller 61 controls the control signal during a period in which the area where the reference mark is provided and the area where the IC chip 4 is mounted on the circuit board 8 are within the imaging range of the place camera 10 corresponding to its position indicated by the encoder pulse. Trigger_P is transmitted to the place camera 10. As a result, the place camera 10 starts imaging the area where the reference mark is provided and the area where the IC chip 4 is mounted on the circuit board 8, and ends the imaging after the period during which the control signal Trigger_P is input. .

また、照明コントローラ51は、制御信号Trigger_Mがケーブル45を介して入力される。この制御信号Trigger_Mは、モーションコントローラ61が、エンコーダパルスが示す自身の位置に対応して、チップカメラ2の撮像領域が、基準マーク5mが設けられる領域からバンプが吸着した領域へと、或いはバンプが吸着した領域から基準マーク5mが設けられる領域へ切り替わることを照明コントローラに対して通知する信号である。また、制御信号Trigger_Mは、モーションコントローラ61が、エンコーダパルスが示す自身の位置に対応して、プレースカメラ10の撮像領域が、基準マークが設けられる領域から回路基板8におけるICチップ4を搭載する領域へと、或いは回路基板8におけるICチップ4を搭載する領域から基準マークが設けられる領域へ切り替わることを照明コントローラに対して通知する信号である。   In addition, the illumination controller 51 receives the control signal Trigger_M via the cable 45. The control signal Trigger_M indicates that the motion controller 61 corresponds to its own position indicated by the encoder pulse so that the imaging area of the chip camera 2 changes from the area where the reference mark 5m is provided to the area where the bump is attracted or This is a signal notifying the illumination controller that the suction area is switched to the area where the reference mark 5m is provided. The control signal Trigger_M indicates that the motion controller 61 corresponds to its own position indicated by the encoder pulse, and the imaging area of the place camera 10 is an area where the IC chip 4 is mounted on the circuit board 8 from the area where the reference mark is provided. Or a signal that notifies the illumination controller that the area of the circuit board 8 where the IC chip 4 is mounted is switched to the area where the reference mark is provided.

照明コントローラ51は、チップカメラ用照明装置52とケーブル46により、プレースカメラ用照明装置53とケーブル47により、それぞれ接続されている。
チップカメラ用照明装置52は、照明コントローラ51から制御信号Trigger_I1Cが入力されている期間、チップカメラ用角度照明52bを点灯(オン)させ、制御信号Trigger_I2Cが入力されている期間、チップカメラ用同軸照明52aを点灯(オフ)させる。
また、プレースカメラ用照明装置53は、照明コントローラ51から制御信号Trigger_I1Pが入力されている期間、プレースカメラ用角度照明53bを点灯させ、制御信号Trigger_I2Pが入力されている期間、プレースカメラ用同軸照明53aを点灯させる。
The illumination controller 51 is connected to the chip camera illumination device 52 and the cable 46, and to the place camera illumination device 53 and the cable 47, respectively.
The chip camera illumination device 52 turns on (turns on) the chip camera angle illumination 52b while the control signal Trigger_I1C is input from the illumination controller 51, and the chip camera coaxial illumination during the period when the control signal Trigger_I2C is input. 52a is turned on (off).
Further, the place camera illumination device 53 lights the place camera angle illumination 53b while the control signal Trigger_I1P is input from the illumination controller 51, and turns on the place camera coaxial illumination 53a while the control signal Trigger_I2P is input. Lights up.

次に、図6〜8を参照して、図1及び図5を参照して説明した実装装置100の動作例について説明する。図6は、実装装置100の動作の流れを示したフローチャートである。また、図7は、図6のステップS104の処理を説明するための図である。また、図8は、照明装置の切り替え動作を説明するためのタイミングチャートである。   Next, an operation example of the mounting apparatus 100 described with reference to FIGS. 1 and 5 will be described with reference to FIGS. FIG. 6 is a flowchart showing the operation flow of the mounting apparatus 100. FIG. 7 is a diagram for explaining the process of step S104 of FIG. FIG. 8 is a timing chart for explaining the switching operation of the lighting device.

ICチップ4を収容したチップカセット3や、回路基板8の所定の位置に用意するとともに、ICチップ4や回路基板8を指定する情報を図示していない所定の入力装置を介して信号処理部1に設定した後、操作者の所定の指示操作を行うと、それに従って実装装置100は動作を開始する。動作を開始すると、信号処理部1は、モーションコントローラ61に対して所定の制御信号を出力することで、移動部6をチップカセット3上で、吸着するICチップ4の上方へ移動する(ステップS101)。   The signal processing unit 1 is prepared at a predetermined position of the chip cassette 3 containing the IC chip 4 and the circuit board 8 and information for specifying the IC chip 4 and the circuit board 8 via a predetermined input device (not shown). After the setting is made, when the operator performs a predetermined instruction operation, the mounting apparatus 100 starts to operate accordingly. When the operation is started, the signal processing unit 1 outputs a predetermined control signal to the motion controller 61, thereby moving the moving unit 6 above the IC chip 4 to be sucked on the chip cassette 3 (step S101). ).

次に、信号処理部1からの指示に従い、モーションコントローラ61は、チップカセット3からICチップ4を吸着ヘッド5でピックする(ステップS102)。   Next, according to the instruction from the signal processing unit 1, the motion controller 61 picks the IC chip 4 from the chip cassette 3 with the suction head 5 (step S102).

次に、信号処理部1からの指示に従い、モーションコントローラ61は、移動部6を基板ステージ7へ向けて移動させ始める(ステップS103)。   Next, according to the instruction from the signal processing unit 1, the motion controller 61 starts to move the moving unit 6 toward the substrate stage 7 (step S103).

モーションコントローラ61からの指示に従い、チップカメラ2がICチップ4を撮像する(ステップS104)。ここで、図7および図8を参照して、ステップS104の処理について説明する。なお、図8では、図4(a)に示すように、モーションコントローラ61の移動方向に従って、チップカメラ2による撮像領域が、基準マーク領域(基準マーク5mが設けられる領域)から、次にバンプ領域(バンプが吸着した領域)へ、最後に基準マーク領域へと切り替わる場合の、制御信号Trigger_C、Trigger_I1C、Trigger_I2Cのレベルの変化を示している。   In accordance with an instruction from the motion controller 61, the chip camera 2 images the IC chip 4 (step S104). Here, the process of step S104 will be described with reference to FIGS. In FIG. 8, as shown in FIG. 4A, in accordance with the moving direction of the motion controller 61, the imaging region by the chip camera 2 is changed from the reference mark region (region where the reference mark 5m is provided) to the next bump region. The figure shows changes in the levels of the control signals Trigger_C, Trigger_I1C, and Trigger_I2C when the area is finally switched to the reference mark area.

モーションコントローラ61は、制御信号Trigger_Pを有効にする(ステップS201)。モーションコントローラ61は、基準マーク領域がチップカメラ2の撮像範囲に入ると、図8の時刻t1に示すように、制御信号Trigger_Cをロウ(L)レベルからハイ(H)レベルに変化させ、チップカメラ2に撮像を開始させる。   The motion controller 61 enables the control signal Trigger_P (step S201). When the reference mark area enters the imaging range of the chip camera 2, the motion controller 61 changes the control signal Trigger_C from the low (L) level to the high (H) level as shown at time t1 in FIG. 2 starts imaging.

照明コントローラ51は、制御信号Trigger_I1Cを無効、制御信号Trigger_I2Cを有効とする(ステップS202)。
図8に示すように、基準マーク領域を撮像するので、照明コントローラ51は、制御信号Trigger_I2CをHレベルに維持し、制御信号Trigger_I1CをLレベルに維持している。これにより、基準マーク領域を撮像する期間において、チップカメラ用同軸照明52aは点灯し、チップカメラ用角度照明52bは消灯している。
The illumination controller 51 invalidates the control signal Trigger_I1C and validates the control signal Trigger_I2C (step S202).
As shown in FIG. 8, since the reference mark area is imaged, the illumination controller 51 maintains the control signal Trigger_I2C at the H level and maintains the control signal Trigger_I1C at the L level. Thereby, in the period during which the reference mark area is imaged, the chip camera coaxial illumination 52a is turned on and the chip camera angle illumination 52b is turned off.

チップカメラ2は、基準マークを撮像する(ステップS203)。基準マーク5mを含む基準マーク領域は、チップカメラ用同軸照明52aからの光が照射されている状態でチップカメラ2により撮像される。   The chip camera 2 images the reference mark (step S203). The reference mark area including the reference mark 5m is imaged by the chip camera 2 while being irradiated with light from the chip camera coaxial illumination 52a.

照明コントローラ51は、制御信号Trigger_I1Cを有効、制御信号Trigger_I2Cを無効とする(ステップS204)。
モーションコントローラ61が、基準マーク領域からバンプ領域に切り替わることを表す制御信号Trigger_Mを照明コントローラ51に出力する。照明コントローラ51は、図8に示すように、時刻t2において制御信号Trigger_I1CをLレベルからHレベルに変化させ、時刻t3において制御信号Trigger_I2CをHレベルからLレベルに変化させる。これにより、チップカメラ用同軸照明52aは消灯し、チップカメラ用角度照明52bが点灯する。
The illumination controller 51 validates the control signal Trigger_I1C and invalidates the control signal Trigger_I2C (step S204).
The motion controller 61 outputs a control signal Trigger_M indicating switching from the reference mark area to the bump area to the illumination controller 51. As shown in FIG. 8, the illumination controller 51 changes the control signal Trigger_I1C from L level to H level at time t2, and changes the control signal Trigger_I2C from H level to L level at time t3. As a result, the chip camera coaxial illumination 52a is turned off, and the chip camera angle illumination 52b is turned on.

チップカメラ2は、バンプを撮像する(ステップS205)。バンプ領域は、チップカメラ用角度照明52bからの光が照射されている状態でチップカメラ2により撮像される。   The chip camera 2 images the bump (step S205). The bump area is imaged by the chip camera 2 in a state where light from the chip camera angle illumination 52b is irradiated.

照明コントローラ51は、制御信号Trigger_I1Cを無効、制御信号Trigger_I2Cを有効とする(ステップS206)。モーションコントローラ61が、バンプ領域から基準マーク領域に切り替わることを表す制御信号Trigger_Mを照明コントローラ51に出力する。照明コントローラ51は、図8に示すように、時刻t4において制御信号Trigger_I2CをLレベルからHレベルに変化させ、時刻t5において制御信号Trigger_I1CをHレベルからLレベルに変化させる。これにより、チップカメラ用角度照明52bは消灯し、チップカメラ用同軸照明52aが点灯する。   The illumination controller 51 invalidates the control signal Trigger_I1C and validates the control signal Trigger_I2C (step S206). The motion controller 61 outputs a control signal Trigger_M indicating that the bump area is switched to the reference mark area to the illumination controller 51. As shown in FIG. 8, the illumination controller 51 changes the control signal Trigger_I2C from L level to H level at time t4, and changes the control signal Trigger_I1C from H level to L level at time t5. As a result, the chip camera angle illumination 52b is turned off, and the chip camera coaxial illumination 52a is turned on.

チップカメラ2は、基準マークを撮像する(ステップS207)。基準マーク5mを含む基準マーク領域は、チップカメラ用同軸照明52aからの光が照射されている状態でチップカメラ2により撮像される。モーションコントローラ61は、基準マーク領域がチップカメラ2の撮像範囲から外れると、制御信号Trigger_CをHレベルからLレベルに変化させ、チップカメラ2の撮像を終了させる。
なお、時刻t2と時刻t3と間の時間および時刻t4と時刻t5との間の時間は、チップカメラ用同軸照明52aおよびチップカメラ用角度照明52bの両方が点灯していることになるが、両方を消灯させる期間としてもよい。
The chip camera 2 images the reference mark (step S207). The reference mark area including the reference mark 5m is imaged by the chip camera 2 while being irradiated with light from the chip camera coaxial illumination 52a. When the reference mark area is out of the imaging range of the chip camera 2, the motion controller 61 changes the control signal Trigger_C from the H level to the L level and ends the imaging of the chip camera 2.
Note that both the chip camera coaxial illumination 52a and the chip camera angle illumination 52b are lit during the time between the time t2 and the time t3 and the time between the time t4 and the time t5. It is good also as a period which turns off.

図6に戻って、次に、信号処理部1は、チップカメラ2の撮像画像に基づきICチップ4の位置ずれ量等を計算する(ステップS105)。
ステップS105で信号処理部1は、例えば次のようにしてICチップ4の位置ずれ量や角度ずれ量を計算する。(1)まず、信号処理部1は、予め確認されている輝度ばらつきやレンズ収差を補正するための情報を参照して、チップカメラ2で撮像された撮像画像の所定画素のグレースケール輝度やレンズ収差を補正する画像処理を実行する。ただし、この補正処理は構成によっては省略することができる。(2)次に、信号処理部1は、記憶部14から読み出したICチップ4の設計値に基づいて各バンプ4aに対応した認識対象領域を設定する。(3)次に、信号処理部1は、ステップS202で設定した認識対象領域毎に、各画素の輝度値(=画素値)から輝度値の重心位置を求める。(4)次に、信号処理部1は、各バンプ4aのX座標及びY座標に基づいてICチップ4のX方向のずれ量ΔX、Y方向のずれ量ΔY及び角度ずれ量Δθを求める。
Returning to FIG. 6, next, the signal processing unit 1 calculates the positional deviation amount of the IC chip 4 and the like based on the captured image of the chip camera 2 (step S105).
In step S105, the signal processing unit 1 calculates the positional deviation amount and the angular deviation amount of the IC chip 4 as follows, for example. (1) First, the signal processing unit 1 refers to information for correcting previously confirmed luminance variations and lens aberrations, and the gray scale luminance and lens of a predetermined pixel of the captured image captured by the chip camera 2. Image processing for correcting aberration is executed. However, this correction process may be omitted depending on the configuration. (2) Next, the signal processing unit 1 sets a recognition target area corresponding to each bump 4 a based on the design value of the IC chip 4 read from the storage unit 14. (3) Next, the signal processing unit 1 obtains the barycentric position of the luminance value from the luminance value (= pixel value) of each pixel for each recognition target area set in step S202. (4) Next, the signal processing unit 1 obtains the deviation amount ΔX in the X direction, the deviation amount ΔY in the Y direction, and the angular deviation amount Δθ of the IC chip 4 based on the X coordinate and the Y coordinate of each bump 4a.

ここで、信号処理部1は、例えば、複数のバンプ4aの各X、Y座標値に基づき、最小二乗法等を用いて各バンプ4aの配列方向を推定する。次に、推定した各バンプ4aの配列方向に基づいて、ICチップ4の中心点Pcの座標を求める。また、信号処理部1は、図3を参照して説明した基準点5bや基準線5cを認識し、それに基づいて基準点P0の座標と、角度ずれ量θを求める際に基準となる方向を求める。そして、信号処理部1は、求めた各バンプ4aの配列方向、中心点Pcの座標、基準点P0の座標、基準となる方向に基づいて、X方向のずれ量ΔX、Y方向のずれ量ΔY及び角度ずれ量Δθを求める。   Here, the signal processing unit 1 estimates the arrangement direction of the bumps 4a using, for example, the least square method based on the X and Y coordinate values of the plurality of bumps 4a. Next, the coordinates of the center point Pc of the IC chip 4 are obtained based on the estimated arrangement direction of the bumps 4a. In addition, the signal processing unit 1 recognizes the reference point 5b and the reference line 5c described with reference to FIG. 3, and based on the reference point 5b, determines the reference point P0 and the reference direction when obtaining the angle deviation amount θ. Ask. Then, the signal processing unit 1 determines the deviation amount ΔX in the X direction and the deviation amount ΔY in the Y direction based on the obtained arrangement direction of the bumps 4a, the coordinates of the center point Pc, the coordinates of the reference point P0, and the reference direction. And an angle deviation amount Δθ.

次に、信号処理部1は、モーションコントローラ61に所定の指示を出力し、モーションコントローラ61が、移動部6を基板ステージ7上で回路基板8のICチップ4の搭載位置上方へ移動する(ステップS106)。   Next, the signal processing unit 1 outputs a predetermined instruction to the motion controller 61, and the motion controller 61 moves the moving unit 6 above the mounting position of the IC chip 4 on the circuit board 8 on the substrate stage 7 (step). S106).

次に、信号処理部1の指示に従い、プレースカメラ10が回路基板8上のICチップ4の搭載領域を撮像する(ステップS107)。なお、このとき、ステップS104で示す撮像処理及び照明装置の切替処理を行ってもよい。基準マークについては、プレースカメラ10の撮像領域に入るように基板ステージ7がXY方向へ移動され、撮像される。   Next, according to the instruction of the signal processing unit 1, the place camera 10 images the mounting area of the IC chip 4 on the circuit board 8 (step S107). At this time, the imaging process and the switching process of the illumination device shown in step S104 may be performed. With respect to the reference mark, the substrate stage 7 is moved in the XY directions so as to enter the imaging region of the place camera 10 and imaged.

信号処理部1は、プレースカメラ10の撮像画像に対してICチップ4の搭載領域について、搭載位置のXY方向のずれ量や角度ずれを認識する(ステップS108)。   The signal processing unit 1 recognizes the displacement amount and the angular displacement of the mounting position in the XY direction in the mounting region of the IC chip 4 with respect to the captured image of the place camera 10 (step S108).

次に、信号処理部1は、上述したステップS105で計算したICチップ4の位置ずれ及び角度ずれ量、並びに回路基板8の搭載領域位置ずれ量に基づいて移動部6の各補正量を計算する(ステップS109)。信号処理部1は、回路基板8に対する認識結果を考慮した上で、ICチップ4の各ずれ量(ΔX、ΔY、ΔZ、Δθ)を、基準とする位置及び向きにできるだけ一致させるように、移動部6のXYZ方向の位置及び角度θを調整する際の補正量を計算する。   Next, the signal processing unit 1 calculates each correction amount of the moving unit 6 based on the positional deviation and the angular deviation amount of the IC chip 4 and the mounting region positional deviation amount of the circuit board 8 calculated in step S105 described above. (Step S109). The signal processing unit 1 is moved so that each deviation amount (ΔX, ΔY, ΔZ, Δθ) of the IC chip 4 matches the reference position and orientation as much as possible in consideration of the recognition result for the circuit board 8. The amount of correction when adjusting the position and angle θ of the unit 6 in the XYZ directions is calculated.

次に、信号処理部1は、ステップS109で求めた各補正量を指示する信号を、モーションコントローラ61に送信する(ステップS110)。   Next, the signal processing unit 1 transmits a signal indicating each correction amount obtained in step S109 to the motion controller 61 (step S110).

そして、モーションコントローラ61が移動部6の位置ずれや角度ずれを補正した後、移動部6が高さを下げ、ICチップ4を回路基板8の接続部に載せて、熱圧着する(ステップS111)。   Then, after the motion controller 61 corrects the positional deviation and the angular deviation of the moving part 6, the moving part 6 lowers the height, places the IC chip 4 on the connection part of the circuit board 8, and thermocompression-bonds (step S111). .

以上のように、本実施形態では、実装装置100(認識装置)が、移動しているICチップ4または回路基板8(認識対象物)を撮像するチップカメラ2またはプレースカメラ10(撮像部)と、を備える。さらに、実装装置100は、認識対象物の主面の垂直方向から光を照射するチップカメラ用同軸照明52aまたはプレースカメラ用同軸照明53a(第1の照明部)と、主面の斜め方向から光を照射する(第2の照明部)と、を有し、撮像部により撮像を行う際に認識対象物を照明するチップカメラ用照明装置52またはプレースカメラ用照明装置53(照明装置)を備える。さらに、実装装置100は、撮像部が撮像する画像に基づいて認識対象物の位置を認識する信号処理部1を備える。実装装置100は、認識対象物にある複数の被撮像領域に応じて、第1の照明部及び第2の照明部から主面への光の照射を制御する。   As described above, in the present embodiment, the mounting apparatus 100 (recognition apparatus) has the chip camera 2 or the place camera 10 (imaging unit) that images the moving IC chip 4 or the circuit board 8 (recognition target object). . Further, the mounting apparatus 100 includes a chip camera coaxial illumination 52a or a place camera coaxial illumination 53a (first illumination unit) that emits light from a direction perpendicular to the main surface of the recognition target, and light from an oblique direction of the main surface. (Second illuminating unit), and a chip camera illuminating device 52 or a place camera illuminating device 53 (illuminating device) that illuminates the recognition target when the image capturing unit captures an image. Furthermore, the mounting apparatus 100 includes a signal processing unit 1 that recognizes the position of the recognition target object based on an image captured by the imaging unit. The mounting apparatus 100 controls the irradiation of light from the first illumination unit and the second illumination unit to the main surface according to a plurality of imaging regions in the recognition target object.

以上の構成を備える本実施形態の実装装置100では、以下に説明する効果を奏する。図9は、図1に示したチップカメラ2による撮像画像の例を説明するための図である。図9は、図8のタイミングチャートを用いて説明した基準マーク領域およびバンプ領域についてのチップカメラ2により撮像画像を示している。図4に示す基準マーク5mのうちチップ移動方向に対して前方にある基準マーク5mを含む領域の撮像画像を、図9(a)においてFront Side Fiducial Areaとして示している。また、図4に示すICチップ4が有する半田ボールを含む領域の撮像画像を、図9(b)においてSolder Bump Areaとして示している。   The mounting apparatus 100 of the present embodiment having the above configuration has the effects described below. FIG. 9 is a diagram for explaining an example of an image captured by the chip camera 2 shown in FIG. FIG. 9 shows an image captured by the chip camera 2 for the reference mark area and the bump area described with reference to the timing chart of FIG. A captured image of an area including the reference mark 5m ahead of the chip movement direction in the reference mark 5m illustrated in FIG. 4 is illustrated as a front side fiducial area in FIG. 9A. In addition, a captured image of a region including the solder balls included in the IC chip 4 illustrated in FIG. 4 is illustrated as Solder Bump Area in FIG. 9B.

また、図4に示す基準マーク5mのうちチップ移動方向に対して後方にある基準マーク5mを含む領域の撮像画像を、図9(c)においてBack Side Fiduccial Areaとして示している。さらに、図9(a)〜(c)各々において、チップカメラ用同軸照明52aのみを点灯させて撮像した際の撮像画像をCoreで示し、チップカメラ用角度照明52bのみを点灯させて撮像した際の撮像画像をAngleで示している。   Also, a captured image of an area including the reference mark 5m located behind the chip movement direction in the reference mark 5m shown in FIG. 4 is shown as Back Side Fidential Area in FIG. 9C. Further, in each of FIGS. 9A to 9C, the captured image when only the chip camera coaxial illumination 52 a is turned on is shown as Core, and only the chip camera angle illumination 52 b is turned on and taken. The captured image is indicated by Angle.

図9(a)、(c)各々のAngleに示すように、基準マーク領域において角度照明を用いると、角度照明からの光は基準マークにおいて反射した後、チップカメラ2には入光されないため、基準マーク5mは撮像されない。一方、図9(a)、(c)各々のCoreに示すように、同軸照明を用いると、図同軸照明からの光は基準マークにおいて反射した後、チップカメラ2に入光するため、基準マーク5mは撮像される。つまり、基準マークを撮像し、その位置を認識するためには、同軸照明が有効にするのが望ましいことがわかる。   As shown in FIGS. 9A and 9C, when angle illumination is used in the reference mark area, light from the angle illumination is reflected on the reference mark and is not incident on the chip camera 2. The reference mark 5m is not imaged. On the other hand, as shown in each core of FIGS. 9A and 9C, when coaxial illumination is used, the light from the coaxial illumination is reflected by the reference mark and then enters the chip camera 2; 5m is imaged. That is, it can be seen that it is desirable to enable the coaxial illumination in order to image the reference mark and recognize its position.

また、図9(b)のCoreに示すように、バンプ領域において同軸照明を用いると、同軸照明からの光は、下地(半導体チップあるいは表面に塗布されたフィルム)において反射した後、チップカメラ2には入光されるため、半田バンプの形状、特にその輪郭部分が、同軸照明を用いた場合に比べて明確に撮像されない。一方、図9(b)のAngleに示すように、角度照明を用いると、半田ボールの凸部(曲面)において反射した光がチップカメラ2に入光するため、半田ボールの形状、特にその輪郭部分を明確に撮像できる。
本実施形態の実装装置100では、図9を参照すると、図9(a)においてCoreで示す撮像画像、図9(b)においてAngleで示す撮像画像、図9(c)においてCoreで示す撮像画像を撮像していくことになる。
9B, when coaxial illumination is used in the bump area, the light from the coaxial illumination is reflected on the ground (semiconductor chip or film coated on the surface), and then the chip camera 2 Therefore, the shape of the solder bump, in particular its outline, is not clearly imaged as compared with the case where coaxial illumination is used. On the other hand, as shown in Angle of FIG. 9B, when angle illumination is used, the light reflected from the convex portion (curved surface) of the solder ball enters the chip camera 2, so that the shape of the solder ball, particularly its contour, is obtained. The part can be clearly imaged.
In the mounting apparatus 100 of the present embodiment, referring to FIG. 9, a captured image indicated by Core in FIG. 9A, a captured image indicated by Angle in FIG. 9B, and a captured image indicated by Core in FIG. 9C. Will be imaged.

つまり、本実施形態の実装装置100によれば、基準マーク5mを撮像する際の照明条件と半導体チップ上のバンプを撮像する際の照明条件とを、移動している基準マークおよび半田バンプ(認識対象物)の撮像時刻に対してリアルタイムに変更することで、基準マークが設けられる第1の領域と、バンプが吸着した第2の領域とを、それぞれの最適な照明条件で撮像することができる。従って、本発明によれば、最適な照明条件で撮像した撮像画像に基づいて、短時間で良好な半導体チップの認識および位置推定が可能となる認識装置、認識方法、実装装置及び実装方法を提供することができる。なお、照明装置としてLED照明を用いることで、切り替えの際の応答速度が十分に速いため、ラインセンサ21による撮像中でも照明の切り替えによる明るさムラの影響を少なくすることができる。従って、ラインセンサ21によるリアルタイム認識との組み合わせにより位置推定精度および認識率の向上と実装処理時間の短縮の両方を併せ持つことが可能となる。   That is, according to the mounting apparatus 100 of the present embodiment, the moving reference mark and solder bump (recognition) between the illumination condition when imaging the reference mark 5m and the illumination condition when imaging the bump on the semiconductor chip are recognized. By changing in real time with respect to the imaging time of the (object), the first area where the reference mark is provided and the second area where the bumps are attracted can be imaged under respective optimal illumination conditions. . Therefore, according to the present invention, it is possible to provide a recognition device, a recognition method, a mounting device, and a mounting method that enable good semiconductor chip recognition and position estimation in a short time based on a captured image captured under optimal illumination conditions. can do. In addition, since the response speed at the time of switching is sufficiently high by using LED illumination as the lighting device, the influence of brightness unevenness due to switching of illumination can be reduced even during imaging by the line sensor 21. Therefore, the combination with the real-time recognition by the line sensor 21 makes it possible to improve both the position estimation accuracy and the recognition rate and shorten the mounting processing time.

なお、本実施形態では、レンズ倍率の調整機構を例えば電動ズーム等の自動調整可能な構成としているので対象とするICチップ4のレイアウトが変化しても自動で対応可能である。ただし、ズームレンズ33の焦点距離を例えば手動で設定するようにしてもよい。   In the present embodiment, the lens magnification adjusting mechanism is configured to be automatically adjustable, such as an electric zoom, so that it can automatically cope with a change in the layout of the target IC chip 4. However, the focal length of the zoom lens 33 may be set manually, for example.

また、本実施形態では、認識対象をICチップ4上のはんだバンプ4aとしているが、チップカメラ2による位置認識は、例えばCSPではない他のパッケージングによる半導体チップや、他の回路搭載部品、受動部品等に対して応用することもできる。また、実装装置に限らず、例えば、チップカセット3に収納する前の段階でのバンプ4aの検査工程で用いる装置として構成することも可能である。また、チップカメラ2は、ラインセンサ21ではなく、エリアセンサを用いて構成することもできる。   In the present embodiment, the recognition target is the solder bump 4a on the IC chip 4, but the position recognition by the chip camera 2 is performed by, for example, a semiconductor chip other than CSP, other circuit mounting components, passive It can also be applied to parts and the like. In addition to the mounting device, for example, it may be configured as a device used in the inspection process of the bumps 4a in a stage before being stored in the chip cassette 3. The chip camera 2 can also be configured using an area sensor instead of the line sensor 21.

また、本実施形態では、照明コントローラに対する制御信号の数を2本としたが、角度照明の角度を複数チャネルで構成する場合には、このチャネル数分増やしてもよい。また、本実施形態では、照明装置を同軸照明と角度照明とからなる構成としたが、照明波長、光量としてチャネル構成しても良い。また、本実施形態では、チップカメラに限定して説明したが、プレースカメラに対してチャネル構成しても良い。   In the present embodiment, the number of control signals for the illumination controller is two. However, when the angle of the angle illumination is composed of a plurality of channels, the number may be increased by the number of channels. In this embodiment, the illumination device is configured by coaxial illumination and angle illumination. However, a channel configuration may be used for illumination wavelength and light quantity. In this embodiment, the description is limited to the chip camera, but a channel configuration may be used for the place camera.

1…信号処理部、2…チップカメラ(撮像部)、3…チップカセット、4…ICチップ(認識対象物)、4a…バンプ(第1認識対象)、5…吸着ヘッド、6…移動部、7…基板ステージ、8…回路基板、11…ホストコンピュータ、33…ズームレンズ、51…照明コントローラ、52…チップカメラ用照明装置、52a…チップカメラ用同軸照明、52b…チップカメラ用角度照明、53…プレースカメラ用照明装置、53a…プレースカメラ用同軸照明、53b…プレースカメラ用角度照明、61…モーションコントローラ、100…実装装置 DESCRIPTION OF SYMBOLS 1 ... Signal processing part, 2 ... Chip camera (imaging part), 3 ... Chip cassette, 4 ... IC chip (recognition target object), 4a ... Bump (1st recognition object), 5 ... Adsorption head, 6 ... Moving part, DESCRIPTION OF SYMBOLS 7 ... Substrate stage, 8 ... Circuit board, 11 ... Host computer, 33 ... Zoom lens, 51 ... Illumination controller, 52 ... Chip camera illumination device, 52a ... Chip camera coaxial illumination, 52b ... Chip camera angle illumination, 53 ... Place camera illumination device, 53a ... Place camera coaxial illumination, 53b ... Place camera angle illumination, 61 ... Motion controller, 100 ... Mounting device

Claims (6)

移動している認識対象物を撮像する撮像部と、
前記認識対象物の主面の垂直方向から光を照射する第1の照明部と、前記主面の斜め方向から光を照射する第2の照明部と、を有し、前記撮像部により撮像を行う際に前記認識対象物を照明する照明装置と、
前記撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する信号処理部と、
を備えた認識装置であって、
前記認識対象物を移動させるモーションコントローラからの通知信号であって、前記認識対象物にある複数の被撮像領域の切り替わりを通知する切り替わり通知信号が入力され、前記第1の照明部及び前記第2の照明部から前記主面への光の照射を、前記切り替わり通知信号に従って制御する照明コントローラを有する
ことを特徴とする認識装置。
An imaging unit for imaging a moving recognition object;
A first illuminating unit that irradiates light from a direction perpendicular to the main surface of the recognition object; and a second illuminating unit that irradiates light from an oblique direction of the main surface. An illumination device for illuminating the recognition object when performing,
A signal processing unit for recognizing the position of the recognition object based on an image captured by the imaging unit;
A recognition device comprising:
A notification signal from a motion controller that moves the recognition target object, and a switching notification signal for notifying switching of a plurality of imaged areas in the recognition target object is input, and the first illumination unit and the second lighting unit are input. A recognition apparatus comprising: an illumination controller that controls light irradiation from the illumination unit to the main surface according to the switching notification signal.
前記認識対象物は半導体チップであり、
前記認識対象物にある複数の被撮像領域には、基準マークが設けられる第1の領域と、バンプが吸着した第2の領域とがあり、
前記照明コントローラは、
前記第1の領域では、前記第1の照明部をオンさせ、前記第2の照明部をオフさせ、
前記第2の領域では、前記第1の照明部をオフさせ、前記第2の照明部をオンさせる制御を前記切り替わり通知信号に従って行う、
ことを特徴とする請求項1に記載の認識装置。
The recognition object is a semiconductor chip;
The plurality of imaged areas in the recognition object include a first area where a reference mark is provided and a second area where a bump is attracted,
The lighting controller
In the first region, the first illumination unit is turned on, the second illumination unit is turned off,
In the second region, the first illumination unit is turned off and the second illumination unit is turned on according to the switching notification signal.
The recognition apparatus according to claim 1.
請求項1または請求項2に記載の認識装置による認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装する、
ことを特徴とする実装装置。
Mounting the recognition object on a predetermined circuit board by performing a predetermined correction control related to the position and angle of the recognition object based on the recognition result by the recognition device according to claim 1 or 2;
A mounting apparatus characterized by that.
移動している認識対象物を撮像する撮像部と、
前記認識対象物の主面の垂直方向から光を照射する第1の照明部と、前記主面の斜め方向から光を照射する第2の照明部と、を有し、前記撮像部により撮像を行う際に前記認識対象物を照明する照明装置と、
前記撮像部が撮像する画像に基づいて前記認識対象物の位置を認識する信号処理部と、を持ち、
前記認識対象物を移動させるモーションコントローラからの通知信号であって、前記認識対象物にある複数の被撮像領域の切り替わりを通知する切り替わり通知信号が入力される照明コントローラが、
前記第1の照明部及び前記第2の照明部から前記主面への光の照射を、前記切り替わり通知信号に従って制御する、
ことを特徴とする認識方法。
An imaging unit for imaging a moving recognition object;
A first illuminating unit that irradiates light from a direction perpendicular to the main surface of the recognition object; and a second illuminating unit that irradiates light from an oblique direction of the main surface. An illumination device for illuminating the recognition object when performing,
A signal processing unit for recognizing the position of the recognition object based on an image captured by the imaging unit;
A lighting controller that is a notification signal from a motion controller that moves the recognition target object, and that receives a switching notification signal for notifying switching of a plurality of imaging regions in the recognition target object.
Controlling irradiation of light from the first illumination unit and the second illumination unit to the main surface according to the switching notification signal;
A recognition method characterized by the above.
前記認識対象物は半導体チップであり、
前記認識対象物にある複数の被撮像領域には、基準マークが設けられる第1の領域と、バンプが吸着した第2の領域とがあり、
前記照明コントローラは、
前記第1の領域では、前記第1の照明部をオンさせ、前記第2の照明部をオフさせ、
前記第2の領域では、前記第1の照明部をオフさせ、前記第2の照明部をオンさせる制御を前記切り替わり通知信号に従って行う、
ことを特徴とする請求項4に記載の認識方法。
The recognition object is a semiconductor chip;
The plurality of imaged areas in the recognition object include a first area where a reference mark is provided and a second area where a bump is attracted,
The lighting controller
In the first region, the first illumination unit is turned on, the second illumination unit is turned off,
In the second region, the first illumination unit is turned off and the second illumination unit is turned on according to the switching notification signal.
The recognition method according to claim 4.
請求項4または請求項5に記載の認識方法による認識結果に基づいて前記認識対象物の位置や角度に係る所定の補正制御を行って前記認識対象物を所定の回路基板に実装する、
ことを特徴とする実装方法。
Mounting the recognition object on a predetermined circuit board by performing a predetermined correction control on the position and angle of the recognition object based on the recognition result by the recognition method according to claim 4 or 5.
An implementation method characterized by that.
JP2013253359A 2013-12-06 2013-12-06 Recognition apparatus, recognition method, mounting apparatus, and mounting method Expired - Fee Related JP6338169B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2013253359A JP6338169B2 (en) 2013-12-06 2013-12-06 Recognition apparatus, recognition method, mounting apparatus, and mounting method
KR1020140057098A KR20150066424A (en) 2013-12-06 2014-05-13 Apparatus and method of detecting marks bumps of semiconductor packages and mounting apparatus and method of mounting semiconductor packages using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013253359A JP6338169B2 (en) 2013-12-06 2013-12-06 Recognition apparatus, recognition method, mounting apparatus, and mounting method

Publications (2)

Publication Number Publication Date
JP2015111631A JP2015111631A (en) 2015-06-18
JP6338169B2 true JP6338169B2 (en) 2018-06-06

Family

ID=53514827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013253359A Expired - Fee Related JP6338169B2 (en) 2013-12-06 2013-12-06 Recognition apparatus, recognition method, mounting apparatus, and mounting method

Country Status (2)

Country Link
JP (1) JP6338169B2 (en)
KR (1) KR20150066424A (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020136361A (en) * 2019-02-14 2020-08-31 ファスフォードテクノロジ株式会社 Mounting device and manufacturing method of semiconductor device
JPWO2022230273A1 (en) * 2021-04-30 2022-11-03

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63293403A (en) * 1987-05-27 1988-11-30 Seiko Instr & Electronics Ltd Recognizing device for chip component
JP3170598B2 (en) * 1995-03-16 2001-05-28 株式会社サキコーポレーション Appearance inspection device
JP4019293B2 (en) * 1998-11-11 2007-12-12 澁谷工業株式会社 Lighting device in mount inspection section
JP4324442B2 (en) * 2003-10-16 2009-09-02 Juki株式会社 Component data generation device and electronic component mounting device
JP2012169370A (en) * 2011-02-10 2012-09-06 Hitachi High-Technologies Corp Display panel inspection equipment and display panel inspection method

Also Published As

Publication number Publication date
JP2015111631A (en) 2015-06-18
KR20150066424A (en) 2015-06-16

Similar Documents

Publication Publication Date Title
JP6310058B2 (en) Image processing apparatus and substrate production system
JPWO2015083220A1 (en) Assembly machine
KR102504473B1 (en) Exposure apparatus, alignment method of the exposure apparatus, and program
JP2014103353A (en) Recognition device, recognition method, mounting device, and mounting method
JP6338169B2 (en) Recognition apparatus, recognition method, mounting apparatus, and mounting method
WO2014155658A1 (en) Production equipment
JP6309962B2 (en) Assembly machine
KR102157356B1 (en) Recognizing apparatus, recognizing method, mounting apparatus and mounting method
US9319593B2 (en) Recognition apparatus, recognition method, mounting apparatus, and mounting method
JPWO2017126025A1 (en) Mounting apparatus and imaging processing method
JP6475264B2 (en) Component mounter
JP2013167572A (en) Workpiece transport apparatus and workpiece transport method
JP6334528B2 (en) Imaging device and production equipment
JPWO2020003384A1 (en) Flatness acquisition system and mounting machine
JP2009253185A (en) Bonding device, and method and program for recognizing position of bonding region used in bonding device,
JP2016201409A (en) Recognition device, recognition method, mounting device, and mounting method
JP7139174B2 (en) IMAGING DEVICE, IMAGING METHOD, POSITIONING DEVICE, AND DIE BONDER
JP5511143B2 (en) Mounting machine
CN109257921B (en) Electronic component mounting apparatus and electronic component mounting method
JP2005286241A (en) Operating machine associated with electronic circuit manufacturing
JP6670590B2 (en) Image generation device, mounting device, and image generation method
CN113228847B (en) Component mounting machine
CN109257922B (en) Electronic component mounting apparatus and electronic component mounting method
JP2014036068A (en) Die bonder, and method of detecting position of bonding tool
JP7095089B2 (en) Mounting machine and mounting system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170925

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171002

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180312

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180416

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180427

R150 Certificate of patent or registration of utility model

Ref document number: 6338169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees