JP7462497B2 - Processing Equipment - Google Patents

Processing Equipment Download PDF

Info

Publication number
JP7462497B2
JP7462497B2 JP2020119466A JP2020119466A JP7462497B2 JP 7462497 B2 JP7462497 B2 JP 7462497B2 JP 2020119466 A JP2020119466 A JP 2020119466A JP 2020119466 A JP2020119466 A JP 2020119466A JP 7462497 B2 JP7462497 B2 JP 7462497B2
Authority
JP
Japan
Prior art keywords
image
unit
processing
control unit
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020119466A
Other languages
Japanese (ja)
Other versions
JP2022016155A (en
Inventor
優一 辻脇
克治 根岸
雅之 梅本
忠義 藤村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disco Corp
Original Assignee
Disco Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disco Corp filed Critical Disco Corp
Priority to JP2020119466A priority Critical patent/JP7462497B2/en
Publication of JP2022016155A publication Critical patent/JP2022016155A/en
Application granted granted Critical
Publication of JP7462497B2 publication Critical patent/JP7462497B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)
  • Finish Polishing, Edge Sharpening, And Grinding By Specific Grinding Devices (AREA)
  • Numerical Control (AREA)
  • Laser Beam Processing (AREA)
  • Dicing (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)

Description

本発明は、加工装置に関する。 The present invention relates to a processing device.

半導体ウエーハ等の被加工物をチップサイズに分割するために、被加工物の分割予定ラインに沿って加工を行う加工装置がある。例えば、特許文献1には、被加工物を撮像して加工すべき領域を検出する技術が開示されている。 There is a processing device that processes a workpiece such as a semiconductor wafer along a planned dividing line in order to divide the workpiece into chip sizes. For example, Patent Document 1 discloses a technology that captures an image of the workpiece and detects the area to be processed.

特開2005-166991号公報JP 2005-166991 A

例えば、オートアラインメントは、分割予定ラインに沿って加工を行う場合、保持テーブルに載置された被加工物の表面を撮像ユニットで撮像し、事前に設定された被加工物の表面に形成されるデバイスのキーパターンと事前に測定されたキーパターンから分割予定ラインまでの距離をもとに、自動で分割予定ラインの位置を検出する。しかし、従来の技術では、異なるパターンをキーパターンとして認識した場合や、設定されているキーパターンから分割予定ラインまでの距離が間違っている場合は、誤った位置を加工してしまうという問題があった。 For example, when processing along a planned division line, auto alignment uses an imaging unit to capture an image of the surface of a workpiece placed on a holding table, and automatically detects the position of the planned division line based on the pre-set key pattern of the device to be formed on the surface of the workpiece and the pre-measured distance from the key pattern to the planned division line. However, with conventional technology, there was a problem that if a different pattern was recognized as the key pattern, or if the distance from the set key pattern to the planned division line was incorrect, the processing would be performed in the wrong position.

本発明は、上記に鑑みてなされたものであって、その目的は、被加工物の分割予定ラインでない位置を加工することを防止できる加工装置を提供することにある。 The present invention has been made in consideration of the above, and its purpose is to provide a processing device that can prevent processing of positions other than the intended dividing line of the workpiece.

上述した課題を解決し、目的を達成するために、本発明の加工装置は、デバイス領域が複数の分割予定ラインによって区画された表面に形成された被加工物を加工する加工装置であって、該加工装置は、被加工物を保持する保持テーブルと、該保持テーブルをX方向に加工送りする加工送りユニットと、該保持テーブルに保持された被加工物に加工溝を形成する加工ユニットと、該加工ユニットをX方向と交差するY方向に割り出し送りする割り出し送りユニットと、該保持テーブルに保持された被加工物を撮像する撮像ユニットと、制御ユニットと、を備え、該制御ユニットは、被加工物の表面を撮像した画像の中心に該分割予定ラインが位置するOK画像と、該画像の中心に該分割予定ラインが位置しないNG画像とを有する教師データを学習した学習済みプログラムで、入力された画像を処理し、入力された画像がOK画像であるかNG画像であるかを判定する機械学習部と、該保持テーブルに載置された加工すべき被加工物の該分割予定ラインを撮像した画像を該機械学習部に入力する入力部と、該機械学習部がOK画像と判定した場合に加工すべき被加工物を加工するように該加工ユニットを制御し、該機械学習部がNG画像と判定した場合に警告処理を実行する制御部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the processing apparatus of the present invention is a processing apparatus for processing a workpiece formed on a surface in which a device area is partitioned by a plurality of planned division lines, and the processing apparatus includes a holding table for holding the workpiece, a processing feed unit for processing and feeding the holding table in the X direction, a processing unit for forming a processing groove in the workpiece held on the holding table, an indexing feed unit for indexing and feeding the processing unit in the Y direction intersecting the X direction, an imaging unit for imaging the workpiece held on the holding table, and a control unit, and the control unit is configured to image the surface of the workpiece. The trained program has learned teacher data having an OK image in which the planned division line is located at the center of the captured image and an NG image in which the planned division line is not located at the center of the image, and includes a machine learning unit that processes an input image and determines whether the input image is an OK image or an NG image, an input unit that inputs an image of the planned division line of the workpiece to be processed placed on the holding table to the machine learning unit, and a control unit that controls the processing unit to process the workpiece to be processed when the machine learning unit determines that the image is an OK image, and executes a warning process when the machine learning unit determines that the image is an NG image.

本願発明の加工装置は、学習済みプログラムを用いて分割予定ラインを撮像した画像を判定することで、分割予定ラインでない位置を加工することを防止できるという効果を奏する。 The processing device of the present invention has the effect of preventing processing of positions that are not the planned division lines by using a trained program to judge images captured of the planned division lines.

図1は、実施形態に係る加工装置の構成例を模式的に示す斜視図である。FIG. 1 is a perspective view that illustrates a configuration example of a processing device according to an embodiment. 図2は、実施形態に係る加工装置で加工されるウエーハの構成例を示す平面図である。FIG. 2 is a plan view showing a configuration example of a wafer to be processed by the processing apparatus according to the embodiment. 図3は、実施形態に係る加工装置の機能構成の一例を模式的に示すブロック図である。FIG. 3 is a block diagram illustrating an example of a functional configuration of the processing device according to the embodiment. 図4は、実施形態に係る加工装置が用いる学習済みプログラムの一例を説明するための図である。FIG. 4 is a diagram for explaining an example of a trained program used by the processing device according to the embodiment. 図5は、実施形態に係る画像データの登録に関する処理手順の一例を示すフローチャートである。FIG. 5 is a flowchart illustrating an example of a processing procedure related to registration of image data according to the embodiment. 図6は、実施形態に係る機械学習部の判定に関する処理手順の一例を示すフローチャートである。FIG. 6 is a flowchart illustrating an example of a processing procedure related to the determination of the machine learning unit according to the embodiment. 図7は、実施形態に係るティーチ部に関する処理手順の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a processing procedure related to the teaching unit according to the embodiment. 図8は、実施形態に係るキーパターンとストリートとの関係の一例を示す図である。FIG. 8 is a diagram showing an example of a relationship between a key pattern and a street according to the embodiment. 図9は、実施形態に係る加工装置のオートアライメント時の処理手順の一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a processing procedure during auto-alignment of the processing apparatus according to the embodiment. 図10は、実施形態の変形例に係る加工装置の構成例を模式的に示す斜視図である。FIG. 10 is a perspective view that illustrates a configuration example of a processing device according to a modified example of the embodiment. 図11は、図10に示すレーザー照射ユニットの構成例を示すブロック図である。FIG. 11 is a block diagram showing an example of the configuration of the laser irradiation unit shown in FIG.

以下、本発明に係る実施形態につき、図面を参照しつつ詳細に説明する。以下の実施形態に記載した内容により本発明が限定されるものではない。また、以下に記載した構成要素には、当業者が容易に想定できるもの、実質的に同一のものが含まれる。さらに、以下に記載した構成は適宜組み合わせることが可能である。また、本発明の要旨を逸脱しない範囲で構成の種々の省略、置換又は変更を行うことができる。 The following describes in detail an embodiment of the present invention with reference to the drawings. The present invention is not limited to the contents described in the following embodiment. The components described below include those that a person skilled in the art can easily imagine and those that are substantially the same. Furthermore, the configurations described below can be combined as appropriate. Various omissions, substitutions, or modifications of the configuration can be made without departing from the spirit of the present invention.

以下に説明する実施形態において、XYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の一方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向をZ軸方向とする。X軸及びY軸を含むXY平面は、水平面と平行である。XY平面と直交するZ軸方向は、鉛直方向である。 In the embodiment described below, an XYZ Cartesian coordinate system is set, and the positional relationship of each part is described with reference to this XYZ Cartesian coordinate system. One direction within a horizontal plane is the X-axis direction, the direction perpendicular to the X-axis direction within the horizontal plane is the Y-axis direction, and the direction perpendicular to both the X-axis direction and the Y-axis direction is the Z-axis direction. The XY plane including the X-axis and Y-axis is parallel to the horizontal plane. The Z-axis direction perpendicular to the XY plane is the vertical direction.

[実施形態]
図面を参照しつつ、実施形態に係る加工装置について説明する。図1は、実施形態に係る加工装置の構成例を模式的に示す斜視図である。図2は、実施形態に係る加工装置で加工されるウエーハの構成例を示す平面図である。図3は、実施形態に係る加工装置の機能構成の一例を模式的に示すブロック図である。
[Embodiment]
The processing device according to the embodiment will be described with reference to the drawings. Fig. 1 is a perspective view showing a typical configuration example of the processing device according to the embodiment. Fig. 2 is a plan view showing a typical configuration example of a wafer processed by the processing device according to the embodiment. Fig. 3 is a block diagram showing a typical example of a functional configuration of the processing device according to the embodiment.

図1に示すように、実施形態に係る加工装置10(加工装置の一例)は、ウエーハ100をストリート(分割予定ライン)103に沿って切削する切削装置である。加工装置10は、基本的な構成として、ウエーハ100を保持するチャックテーブル11、撮像ユニット12、加工ユニット13、駆動手段14、Z軸移動手段15、タッチパネル17、LEDライト18、及び制御ユニット40を備える。 As shown in FIG. 1, the processing device 10 (an example of a processing device) according to the embodiment is a cutting device that cuts a wafer 100 along a street (planned dividing line) 103. The processing device 10 basically includes a chuck table 11 that holds the wafer 100, an imaging unit 12, a processing unit 13, a driving means 14, a Z-axis moving means 15, a touch panel 17, an LED light 18, and a control unit 40.

ウエーハ(被加工物の一例)100は、図2に示すように、環状のフレーム108に装着された粘着テープ107の表面に貼着されている。また、ウエーハ100は、表面101に格子状に形成された複数のストリート103によって複数の領域が区画され、この区画された領域にIC,LSI等の半導体チップ構成のデバイス104が形成されている。このように構成されたウエーハ100は、環状のフレーム108に装着された粘着テープ107に表面101を上側にして裏面102が貼着される。 As shown in FIG. 2, a wafer (an example of a workpiece) 100 is attached to the surface of an adhesive tape 107 attached to an annular frame 108. The wafer 100 is partitioned into a plurality of regions by a plurality of streets 103 formed in a lattice pattern on the surface 101, and devices 104 made up of semiconductor chips such as ICs and LSIs are formed in these partitioned regions. The wafer 100 thus configured has its back surface 102 attached to the adhesive tape 107 attached to the annular frame 108 with the surface 101 facing up.

図1に戻り、チャックテーブル11(保持テーブルの一例)は、ウエーハ100を吸着保持する保持面11aを有し、モータ19に連結されて回転可能に設けられている。また、チャックテーブル11は、ボールねじ20、ナット、パルスモータ21等による周知構成のX軸移動手段22によって保持面11aに対して水平方向となるX軸方向に移動可能に設けられる。これにより、加工装置10は、チャックテーブル11に保持されたウエーハ100を、撮像ユニット12や加工ユニット13に対して相対的にX軸方向に移動させることができる。 Returning to FIG. 1, the chuck table 11 (an example of a holding table) has a holding surface 11a that suction-holds the wafer 100, and is rotatably connected to a motor 19. The chuck table 11 is also movable in the X-axis direction, which is horizontal to the holding surface 11a, by an X-axis moving means 22 of known configuration, such as a ball screw 20, a nut, and a pulse motor 21. This allows the processing device 10 to move the wafer 100 held on the chuck table 11 in the X-axis direction relative to the imaging unit 12 and the processing unit 13.

撮像ユニット12は、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等のイメージセンサを搭載した電子顕微鏡である。撮像ユニット12は、チャックテーブル11の保持面11a上に保持されたウエーハ100の表面101を撮像する。撮像ユニット12は、低倍率(Lo)のマクロ撮像または高倍率(Hi)のミクロ撮像に切り替え、ウエーハ100の表面101を撮像可能となっている。撮像ユニット12によって取得した画像情報(キーパターン)を基に切削すべき領域部分(ストリート)が検出され、加工ユニット13による加工動作の位置付けに用いられる。撮像ユニット12は、例えば、チャックテーブル11の保持面11aに保持されたウエーハ100の表面に照明光を照射する光源を備えてもよい。この光源は、ウエーハ100を真上から照明する落射光源と、斜め方向から照明する斜光光源とで構成することができる。 The imaging unit 12 is an electron microscope equipped with an image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging unit 12 images the surface 101 of the wafer 100 held on the holding surface 11a of the chuck table 11. The imaging unit 12 can image the surface 101 of the wafer 100 by switching between low magnification (Lo) macro imaging and high magnification (Hi) micro imaging. The area (streets) to be cut are detected based on the image information (key pattern) acquired by the imaging unit 12, and are used to position the processing operation by the processing unit 13. The imaging unit 12 may include, for example, a light source that irradiates illumination light onto the surface of the wafer 100 held on the holding surface 11a of the chuck table 11. This light source can be composed of an epi-illumination light source that illuminates the wafer 100 from directly above and an oblique light source that illuminates the wafer 100 from an oblique direction.

加工ユニット13は、チャックテーブル11の保持面11aに保持されたウエーハ100を回転するリング形状の極薄の切削ブレード24によってストリート103に沿って切削して切削溝(カーフ)を形成するものである。撮像ユニット12は、加工ユニット13用のハウジング25の一部に取り付け支持されることで一体化されており、ボールねじ、ナット、パルスモータ26等によるZ軸移動手段15によってZ軸方向に移動可能に設けられている。また、チャックテーブル11の保持面11aに対して撮像ユニット12や加工ユニット13を相対的にY軸方向に移動させるY軸移動手段27は、ボールねじ28、ナット、パルスモータ29等からなり、X軸移動手段22とともに駆動手段14を構成する。 The processing unit 13 cuts the wafer 100 held on the holding surface 11a of the chuck table 11 along the street 103 with a rotating ring-shaped ultra-thin cutting blade 24 to form a cutting groove (kerf). The imaging unit 12 is integrated by being attached to and supported by a part of the housing 25 for the processing unit 13, and is provided so as to be movable in the Z-axis direction by Z-axis moving means 15 including a ball screw, a nut, a pulse motor 26, etc. In addition, the Y-axis moving means 27 for moving the imaging unit 12 and the processing unit 13 in the Y-axis direction relative to the holding surface 11a of the chuck table 11 is composed of a ball screw 28, a nut, a pulse motor 29, etc., and constitutes the driving means 14 together with the X-axis moving means 22.

加工ユニット13は、ハウジング25の中に、図示しないスピンドルが収容されて、エアベアリングにより回転可能に支持されている。スピンドルは、ハウジング25に収容された図示しないモータにより回転駆動される。切削ブレード24は、スピンドルの先端部に着脱可能に装着され、スピンドルの回転駆動により回転する。 The machining unit 13 has a spindle (not shown) housed in a housing 25 and rotatably supported by an air bearing. The spindle is driven to rotate by a motor (not shown) housed in the housing 25. The cutting blade 24 is removably attached to the tip of the spindle and rotates when the spindle is driven to rotate.

タッチパネル17は、制御ユニット40による制御の下、撮像ユニット12が撮像したウエーハ100の表面101の画像や加工処理に必要な各種情報を表示するとともに、加工処理に必要な入力操作等をオペレータから受け付ける。タッチパネル17は、加工装置10の筐体において見やすくて操作しやすい箇所に配設される。タッチパネル17は、表示装置及び入力装置を備えて構成される。タッチパネル17は、液晶ディスプレイや有機ELディスプレイなどの表示デバイスと、表示デバイスの表示面における入力位置や座標を指定するタッチスクリーンとを備えたタッチスクリーンディスプレイにより構成されてもよい。 Under the control of the control unit 40, the touch panel 17 displays the image of the surface 101 of the wafer 100 captured by the imaging unit 12 and various information required for processing, and also receives input operations and the like required for processing from the operator. The touch panel 17 is disposed in an easy-to-see and easy-to-operate location on the housing of the processing device 10. The touch panel 17 is configured with a display device and an input device. The touch panel 17 may be configured with a touch screen display equipped with a display device such as a liquid crystal display or an organic EL display, and a touch screen for specifying an input position or coordinates on the display surface of the display device.

LEDライト18は、加工装置10の稼働状況を複数の表示色で通知する。LEDライト18は、制御ユニット40による制御の下、点灯したり、点滅したりすることが可能な構成となっている。 The LED light 18 notifies the operating status of the processing device 10 with multiple display colors. The LED light 18 is configured to be able to light up or blink under the control of the control unit 40.

上記した構成の加工装置10は、高速回転させた切削ブレード24をウエーハ100に所定の切り込み深さで切り込ませながら、加工ユニット13に対してチャックテーブル11をX軸移動手段22でX軸方向に相対的に加工送りさせる。これにより、ウエーハ100上のストリート103を切削加工して切削溝(カーフ)を形成することができる。続いて、加工装置10は、チャックテーブル11の回転によりウエーハ100を90°回転させた後、新たにX軸方向に配されたすべてのストリート103について加工ユニット13で同様の切削加工を繰り返す。これにより、ウエーハ100を個々のデバイス104に分割できる。 The processing device 10 configured as described above cuts the wafer 100 to a predetermined cutting depth with the cutting blade 24 rotated at high speed, while moving the chuck table 11 relatively in the X-axis direction with the X-axis moving means 22 with respect to the processing unit 13. This allows the streets 103 on the wafer 100 to be cut to form cut grooves (kerfs). Next, the processing device 10 rotates the wafer 100 by 90° by rotating the chuck table 11, and then repeats the same cutting process with the processing unit 13 for all the new streets 103 arranged in the X-axis direction. This allows the wafer 100 to be divided into individual devices 104.

図3に示すストレージ30は、制御ユニット40により実行される各種処理等の機能を実現する制御プログラム201や、かかる制御プログラムによる処理に用いられるデータなどを記憶する。本実施形態では、ストレージ30は、機械学習を実行した学習済みプログラム202をさらに記憶する。ストレージ30は、HDD(Hard Disk Drive)や半導体メモリ等により実装できる。ストレージ30は、制御ユニット40が備えるプロセッサが制御プログラム201に記述された命令を実行する際の一時的な作業領域としても利用されてもよい。 The storage 30 shown in FIG. 3 stores a control program 201 that realizes functions such as various processes executed by the control unit 40, and data used in the processes by such control programs. In this embodiment, the storage 30 further stores a trained program 202 that has undergone machine learning. The storage 30 can be implemented using a hard disk drive (HDD), a semiconductor memory, or the like. The storage 30 may also be used as a temporary working area when the processor included in the control unit 40 executes instructions written in the control program 201.

ストレージ30は、画像記憶部31を備える。画像記憶部31は、ウエーハ100の表面101を撮像した画像をOK画像とNG画像とにラベリングされた画像データ300を記憶する。画像データ300は、学習済みプログラム202の教師データとして用いられる。学習済みプログラム202は、ウエーハ100の表面101を撮像した画像の中心にストリート103が位置するOK画像と、該画像の中心にストリート103が位置しないNG画像との複数の画像データ300を教師データとして学習したプログラムである。学習済みプログラム202は、ウエーハ100の種類ごと、および、デバイス104の種類ごとの少なくとも一方で機械学習したプログラムを含む。画像データ300は、ウエーハ100の表面101を撮像した画像と、該画像をOK画像とNG画像とにラベリングした情報と有するデータである。画像データ300は、例えば、画像とラベルとを示す情報を有する。画像データ300は、例えば、加工装置10で撮像した画像と、加工装置10の外部から取得した画像と、を有する。 The storage 30 includes an image storage unit 31. The image storage unit 31 stores image data 300 in which an image of the surface 101 of the wafer 100 is labeled as an OK image and an NG image. The image data 300 is used as teacher data for the learned program 202. The learned program 202 is a program that has learned a plurality of image data 300 as teacher data, including an OK image in which the street 103 is located at the center of an image of the surface 101 of the wafer 100, and an NG image in which the street 103 is not located at the center of the image. The learned program 202 includes a program that has been machine-learned for at least one of the types of wafer 100 and the types of device 104. The image data 300 includes an image of the surface 101 of the wafer 100 and information that labels the image as an OK image and an NG image. The image data 300 includes, for example, information indicating an image and a label. The image data 300 includes, for example, an image captured by the processing device 10 and an image acquired from outside the processing device 10.

本実施形態では、加工装置10は、学習済みプログラム202をストレージ30に記憶する場合について説明するが、これに限定されない。加工装置10は、例えば、加工装置10のアクセス可能な外部のサーバ、記憶装置、他の加工装置10等に記憶された学習済みプログラム202を用いるように構成されてもよい。加工装置10は、例えば、学習済みプログラム202をサーバ等で実行させてもよい。 In this embodiment, the processing device 10 stores the learned program 202 in the storage 30, but is not limited to this. The processing device 10 may be configured to use the learned program 202 stored in, for example, an external server, storage device, another processing device 10, etc. that can be accessed by the processing device 10. The processing device 10 may, for example, cause the learned program 202 to be executed by a server, etc.

図4は、実施形態に係る加工装置10が用いる学習済みプログラム202の一例を説明するための図である。図4に示す一例では、画像データ300において、ウエーハ100のデバイス104の詳細な記載を省略している。 Figure 4 is a diagram for explaining an example of a learned program 202 used by the processing device 10 according to the embodiment. In the example shown in Figure 4, detailed description of the device 104 of the wafer 100 is omitted in the image data 300.

図4に示すように、学習済みプログラム202は、複数のウエーハ100の種類ごとに、OK画像を有する画像データ300とNG画像を有する画像データ300を教師データとして学習したプログラム(機械学習データ)となっている。学習済みプログラム202は、ウエーハ100の種類を識別可能な識別データと、該識別データに対応して学習したプログラムと、を有する。すなわち、学習済みプログラム202は、識別データに紐付けられたOK画像およびNG画像の画像データ300が機械学習を行った教師データとなっている。加工するウエーハ100と同じ種類のウエーハ100の教師データのみを利用して機械学習を行い、作成された学習済みプログラム202を加工時に利用しても良い。加工装置10は、同一のウエーハ100による学習済みプログラム202で判定することで、精度高く判別することができる。 As shown in FIG. 4, the learned program 202 is a program (machine learning data) that has been learned using image data 300 having OK images and image data 300 having NG images as teacher data for each type of wafer 100. The learned program 202 has identification data that can identify the type of wafer 100 and a program that has been learned corresponding to the identification data. In other words, the learned program 202 is trained using the image data 300 of OK images and NG images linked to the identification data as teacher data for machine learning. Machine learning may be performed using only teacher data of wafers 100 of the same type as the wafer 100 to be processed, and the created trained program 202 may be used during processing. The processing device 10 can make a highly accurate judgment by judging using the trained program 202 for the same wafer 100.

また、加工装置10は、デバイス104の種類にかかわらず、複数種類のウエーハ100の教師データを利用して機械学習を行い、作成された学習済みプログラム202を加工時に利用してもよい。後者の場合は識別データとの紐付けは必須ではない。この場合、加工装置10は、一つの学習済みプログラム202を作成すれば様々な種類のウエーハ100において使用できるので、汎用性が高くウエーハ100の種類毎に学習済みプログラム202を作成する必要がないので効率的である。 In addition, the processing apparatus 10 may perform machine learning using training data from multiple types of wafers 100, regardless of the type of device 104, and use the created learned program 202 during processing. In the latter case, linking with identification data is not required. In this case, the processing apparatus 10 can use one learned program 202 for various types of wafers 100 by creating one program, which is highly versatile and efficient because there is no need to create a learned program 202 for each type of wafer 100.

図4に示す一例では、識別データが「0001」~「0004」において、学習済みプログラム202は、ウエーハ100の表面101を撮像した複数の画像データ300を機械学習している。詳細には、学習済みプログラム202は、OK画像の特徴を示す複数の画像データ300と、NG画像の特徴を示す複数の画像データ300とをデータセットとして用いたモデルを機械学習することで、入力された画像がOK画像であるかNG画像であるかを判定することを実現している。 In the example shown in FIG. 4, when the identification data is "0001" to "0004", the trained program 202 performs machine learning on a plurality of image data 300 capturing an image of the surface 101 of the wafer 100. In detail, the trained program 202 performs machine learning on a model using a plurality of image data 300 showing the characteristics of a good image and a plurality of image data 300 showing the characteristics of a bad image as a data set, thereby realizing the determination of whether an input image is a good image or a bad image.

本実施形態では、学習済みプログラム202は、データセットとしての複数の画像データ300を用いたモデルを機械学習することで、機械学習したモデルに基づいて、入力された判定対象の画像がOK画像であるかNG画像であるかを判定することが可能なプログラムとなっている。 In this embodiment, the trained program 202 is a program that trains a model using a plurality of image data 300 as a data set, and is capable of determining whether an input image to be judged is an OK image or an NG image based on the trained model.

図3に戻り、制御ユニット40は、CPU(Central Processing Unit)などの演算処理装置と、ROM(Read Only Memory)又はRAM(Random Access Memory)などの記憶装置と、入出力インタフェース装置とを備える。制御ユニット40は、かかる装置を用いて、加工装置10が実施する一連の加工工程に従い、上述した各構成要素を制御するための制御プログラムなどを実行可能なコンピュータである。 Returning to FIG. 3, the control unit 40 includes an arithmetic processing device such as a CPU (Central Processing Unit), a storage device such as a ROM (Read Only Memory) or a RAM (Random Access Memory), and an input/output interface device. The control unit 40 is a computer that can use these devices to execute control programs and the like for controlling each of the above-mentioned components in accordance with a series of processing steps performed by the processing device 10.

制御ユニット40は、タッチパネル17を介してオペレータにより設定された加工条件に従って、加工装置10の動作全般を制御する。制御ユニット40は、図3に示すように、機械学習部41と、入力部42と、制御部43と、ラベリング部44と、ティーチ部45と、アライメント部46と、を備える。制御ユニット40は、制御プログラム201を実行することにより、各部の機能、作用等を実現する。 The control unit 40 controls the overall operation of the processing device 10 according to the processing conditions set by the operator via the touch panel 17. As shown in FIG. 3, the control unit 40 includes a machine learning unit 41, an input unit 42, a control unit 43, a labeling unit 44, a teach unit 45, and an alignment unit 46. The control unit 40 executes a control program 201 to realize the functions, actions, etc. of each unit.

機械学習部41は、学習済みプログラム202で、入力された画像を処理し、入力された画像がOK画像であるかNG画像であるかを判定する機能を提供する。機械学習部41は、OK画像とNG画像とを有する教師データを学習した学習済みプログラム202を実行することで、入力された画像を学習済みプログラム202で判定し、該判定した結果を示す情報を制御部43に提供する。 The machine learning unit 41 processes an input image with the trained program 202 and provides a function of determining whether the input image is a OK image or a NG image. The machine learning unit 41 executes the trained program 202 that has learned teacher data having OK images and NG images, thereby determining the input image with the trained program 202, and provides information indicating the result of the determination to the control unit 43.

機械学習部41は、画像記憶部31の画像データ300を用いて、機械学習を実行した学習済みプログラム202を生成、更新する機能を提供する。機械学習部41は、ウエーハ100の識別データに対応した画像記憶部31の画像データ300を用いて、識別データごとに機械学習を実行する機能を提供する。 The machine learning unit 41 provides a function to generate and update a learned program 202 that has executed machine learning using the image data 300 in the image storage unit 31. The machine learning unit 41 provides a function to execute machine learning for each identification data using the image data 300 in the image storage unit 31 that corresponds to the identification data of the wafer 100.

入力部42は、チャックテーブル11に載置された加工すべきウエーハ100のストリート103を撮像した画像を機械学習部41に入力する。入力部42は、撮像ユニット12が加工すべきウエーハ100を撮像した画像を取得し、該画像を機械学習部41に入力する。 The input unit 42 inputs an image of the street 103 of the wafer 100 to be processed placed on the chuck table 11 to the machine learning unit 41. The input unit 42 acquires an image of the wafer 100 to be processed captured by the imaging unit 12, and inputs the image to the machine learning unit 41.

制御部43は、機械学習部41がOK画像と判定した場合に、加工すべきウエーハ100を加工するように加工ユニット13を制御する機能を提供する。すなわち、制御部43は、学習済みプログラム202でOK画像であると判定したことを示す情報が機械学習部41から提供されると、加工を制御するための処理を実行する。制御部43は、例えば、加工すべきウエーハ100のストリート103を加工するように、加工ユニット13を制御する。また、制御部43は、機械学習部41がNG画像と判定した場合に、警告処理を実行する機能を提供する。警告処理は、例えば、ストリート103の位置が正しくないことを通知する処理と、加工ユニット13の加工を停止または保留する処理とを含み、ウエーハ100を誤って加工することを防止する。通知する処理は、例えばタッチパネル17に警告を示す情報を表示させる、エラー音や音声で警告を示す情報を発信する、加工装置10を覆う外装カバーから露出して設置されたLEDライト18をエラー時に該当する色に点灯するまたは点滅させるなどの手段を含む。 The control unit 43 provides a function to control the processing unit 13 to process the wafer 100 to be processed when the machine learning unit 41 judges that the image is OK. That is, when the control unit 43 receives information from the machine learning unit 41 indicating that the learned program 202 judges that the image is OK, the control unit 43 executes a process to control the processing. The control unit 43 controls the processing unit 13 to process, for example, the street 103 of the wafer 100 to be processed. The control unit 43 also provides a function to execute a warning process when the machine learning unit 41 judges that the image is NG. The warning process includes, for example, a process of notifying that the position of the street 103 is incorrect and a process of stopping or suspending the processing of the processing unit 13, thereby preventing the wafer 100 from being erroneously processed. The notification process includes, for example, a means of displaying information indicating a warning on the touch panel 17, issuing information indicating a warning by an error sound or voice, and lighting or blinking the LED light 18 exposed from the exterior cover covering the processing device 10 in a color corresponding to an error.

ラベリング部44は、ウエーハ100の表面101を撮像した画像をOK画像とNG画像とにラベリングし、画像データ300として画像記憶部31に記憶する。ラベリング部44は、例えば、加工装置10で撮像した画像、他の加工装置10で撮像した画像等を取得し、該画像にOK画像またはNG画像を示すラベルを紐づける。ラベリング部44は、例えば、画像とOK画像であるかNG画像であるかを選択させることが可能な画面をタッチパネル17に表示させ、画面に対する操作結果に基づいて、画像をラベリングする構成としてもよい。ラベリング部44は、例えば、画面を縦方向に3分割した際の真ん中の領域に直線と認識できるラインがあるなど、画像におけるストリート103の判定条件等に基づいてラベルを自動で紐付ける構成としてもよい。 The labeling unit 44 labels the image of the surface 101 of the wafer 100 into an OK image and an NG image, and stores the image data 300 in the image storage unit 31. The labeling unit 44 acquires, for example, an image captured by the processing device 10, an image captured by another processing device 10, etc., and associates a label indicating an OK image or an NG image with the image. The labeling unit 44 may be configured to display, for example, an image and a screen on the touch panel 17 that allows the user to select whether the image is an OK image or an NG image, and label the image based on the operation result on the screen. The labeling unit 44 may be configured to automatically associate a label based on the judgment conditions of the street 103 in the image, such as a line that can be recognized as a straight line in the middle area when the screen is vertically divided into thirds.

ティーチ部45は、ウエーハ100の表面101に形成されたキーパターンと、該キーパターンからストリート103の距離と、を登録する機能を提供する。ティーチ部45は、ウエーハ100の表面101に形成されるデバイス104の一部であるキーパターンからストリート103までの距離を登録させる画面をタッチパネル17に表示させ、タッチパネル17を介して登録されたキーパターンとストリート103までの距離とを、ウエーハ100の種類等に対応させる。 The teach unit 45 provides a function for registering a key pattern formed on the surface 101 of the wafer 100 and the distance from the key pattern to the street 103. The teach unit 45 displays on the touch panel 17 a screen for registering the distance from a key pattern, which is part of a device 104 formed on the surface 101 of the wafer 100, to the street 103, and corresponds the key pattern registered via the touch panel 17 and the distance to the street 103 to the type of wafer 100, etc.

アライメント部46は、チャックテーブル11に載置された加工すべきウエーハ100を撮像し、パターンマッチングにより該キーパターンを検出することで、ウエーハ100のストリート103を検出し、検出されたストリート103を撮像ユニット12の中心に位置づけて撮像する機能を提供する。アライメント部46は、撮像ユニット12が撮像した画像を入力部42に提供する。 The alignment unit 46 provides a function of capturing an image of the wafer 100 to be processed placed on the chuck table 11, detecting the key pattern by pattern matching, detecting the streets 103 on the wafer 100, and positioning the detected streets 103 at the center of the imaging unit 12 and capturing an image. The alignment unit 46 provides the image captured by the imaging unit 12 to the input unit 42.

以上、本実施形態に係る加工装置10の構成例について説明した。なお、図1乃至図4を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る加工装置10の構成は係る例に限定されない。本実施形態に係る加工装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。 The above describes an example of the configuration of the processing device 10 according to this embodiment. Note that the above configuration described using Figures 1 to 4 is merely an example, and the configuration of the processing device 10 according to this embodiment is not limited to this example. The functional configuration of the processing device 10 according to this embodiment can be flexibly modified according to the specifications and operation.

(画像データの登録例)
次に、実施形態に係る加工装置10が実行する画像データ300の登録の一例を説明する。図5は、実施形態に係る画像データ300の登録に関する処理手順の一例を示すフローチャートである。図5に示す処理手順は、制御ユニット40が制御プログラム201を実行することで実現される。図5に示す処理手順は、例えば、画像を教師データとして登録するタイミング、学習済みプログラム202に登録する画像が発生したタイミング等に実行される。
(Example of image data registration)
Next, an example of registration of image data 300 executed by the processing device 10 according to the embodiment will be described. Fig. 5 is a flowchart showing an example of a processing procedure related to registration of image data 300 according to the embodiment. The processing procedure shown in Fig. 5 is realized by the control unit 40 executing the control program 201. The processing procedure shown in Fig. 5 is executed, for example, at the timing of registering an image as teacher data, at the timing of occurrence of an image to be registered in the learned program 202, etc.

図5に示すように、制御ユニット40は、ウエーハ100の表面101を撮像した画像を取得する(ステップ1001)。制御ユニット40は、例えば、ウエーハ100の表面101のデバイス104を撮像した画像の情報を取得する。例えば、精度を求める場合、制御ユニット40は、デバイス104の種類ごとの画像を取得する。例えば、汎用性を求める場合、制御ユニット40は、1つのデバイス104の種類だけではなく、不特定多数のデバイス104の画像を取得する。例えば、制御ユニット40は、撮像ユニット12だけではなく、加工装置10の外部のサーバ、記憶装置等から画像を取得する構成としてもよい。制御ユニット40は、ステップ1001の処理が終了すると、処理をステップ1002に進める。 As shown in FIG. 5, the control unit 40 acquires an image of the surface 101 of the wafer 100 (step 1001). The control unit 40 acquires information on an image of, for example, the device 104 on the surface 101 of the wafer 100. For example, when precision is required, the control unit 40 acquires images for each type of device 104. For example, when versatility is required, the control unit 40 acquires images of not only one type of device 104 but an unspecified number of devices 104. For example, the control unit 40 may be configured to acquire images not only from the imaging unit 12 but also from a server, storage device, etc. external to the processing device 10. When the process of step 1001 is completed, the control unit 40 advances the process to step 1002.

制御ユニット40は、取得した画像をOK画像とNG画像にラベリングした画像データ300を画像記憶部31に記憶する(ステップ1002)。制御ユニット40は、例えば、画像のストリート103の配置と配置条件に基づいて、OK画像とNG画像にラベリングするように構成できる。制御ユニット40は、例えば、OK画像とNG画像とをユーザに判定させる画面をタッチパネル17に表示させ、判定結果に基づいてラベリングするように構成できる。制御ユニット40は、ステップ1002の処理が終了すると、処理をステップ1003に進める。 The control unit 40 stores image data 300 in which the acquired images have been labeled as OK images and NG images in the image storage section 31 (step 1002). The control unit 40 can be configured to label images as OK images and NG images based on the layout and layout conditions of the street 103 of the image, for example. The control unit 40 can be configured to display a screen on the touch panel 17 that allows the user to determine whether the image is OK or NG, and to label the images based on the result of the determination. When the process of step 1002 ends, the control unit 40 advances the process to step 1003.

制御ユニット40は、ラベリングされた画像データ300を用いて機械学習を実施し、OK画像とNG画像とを判別可能な学習済みプログラム202を生成する(ステップ1003)。制御ユニット40は、例えば、ウエーハ100やデバイス104ごとに、教師データである画像データ300のOK画像とNG画像の特徴、パターン等に基づいて、未知の画像を判定するルール(モデル)を学習した学習済みプログラム202を生成する。すなわち、学習済みプログラム202を生成するとは、例えば、未知の画像を判定するルールを学習したことを意味する。制御ユニット40は、ステップ1003の処理が終了すると、処理をステップ1004に進める。 The control unit 40 performs machine learning using the labeled image data 300 to generate a trained program 202 capable of distinguishing between OK and NG images (step 1003). The control unit 40 generates the trained program 202 that has learned the rules (model) for judging unknown images based on the characteristics and patterns of the OK and NG images in the image data 300, which is the teacher data, for each wafer 100 or device 104, for example. In other words, generating the trained program 202 means, for example, that the rules for judging unknown images have been learned. When the process of step 1003 is completed, the control unit 40 advances the process to step 1004.

制御ユニット40は、生成した学習済みプログラム202をストレージ30に記憶する(ステップ1004)。制御ユニット40は、例えば、ストレージ30に学習済みプログラム202が既に記憶されている場合、生成した学習済みプログラム202を上書きする、あるいは、新規に追加するように記憶する。制御ユニット40は、ステップ1004の処理を終了すると、図5に示す処理手順を終了させる。 The control unit 40 stores the generated learned program 202 in the storage 30 (step 1004). For example, if the learned program 202 is already stored in the storage 30, the control unit 40 overwrites the generated learned program 202 or stores it as a new program to be added. When the control unit 40 ends the processing of step 1004, it ends the processing procedure shown in FIG. 5.

図5に示す処理手順を実行することで、制御ユニット40は、機械学習部41及びラベリング部44として機能する。 By executing the processing procedure shown in FIG. 5, the control unit 40 functions as a machine learning unit 41 and a labeling unit 44.

(機械学習部の判定)
次に、実施形態に係る加工装置10が実行する機械学習部41の判定の一例を説明する。図6は、実施形態に係る機械学習部41の判定に関する処理手順の一例を示すフローチャートである。図6に示す処理手順は、制御ユニット40が制御プログラム201を実行することで実現される。図6に示す処理手順は、例えば、入力部42から画像が入力された場合等に実行される。
(Machine learning decision)
Next, an example of the determination by the machine learning unit 41 executed by the processing device 10 according to the embodiment will be described. Fig. 6 is a flowchart showing an example of a processing procedure related to the determination by the machine learning unit 41 according to the embodiment. The processing procedure shown in Fig. 6 is realized by the control unit 40 executing the control program 201. The processing procedure shown in Fig. 6 is executed, for example, when an image is input from the input unit 42.

図6に示すように、制御ユニット40は、学習済みプログラム202で入力された画像を処理し、入力された画像がOK画像であるかNG画像であるかを判定する(ステップ1101)。制御ユニット40は、例えば、学習済みプログラム202を実行することで、入力された画像がOK画像であるかNG画像であるかの判定を学習済みプログラム202に実行させる。制御ユニット40は、学習済みプログラム202から判定結果を取得すると、処理をステップ1102に進める。 As shown in FIG. 6, the control unit 40 processes the input image with the learned program 202 and determines whether the input image is an OK image or an NG image (step 1101). For example, the control unit 40 executes the learned program 202 to cause the learned program 202 to determine whether the input image is an OK image or an NG image. When the control unit 40 obtains the determination result from the learned program 202, it proceeds to step 1102.

制御ユニット40は、入力された画像の判定結果を制御部43に出力する(ステップ1102)。制御ユニット40は、学習済みプログラム202を実行することで得られた入力画像の判定結果を制御部43に出力すると、図6に示す処理手順を終了させる。 The control unit 40 outputs the judgment result of the input image to the control unit 43 (step 1102). When the control unit 40 outputs the judgment result of the input image obtained by executing the learned program 202 to the control unit 43, it ends the processing procedure shown in FIG. 6.

本実施形態では、制御ユニット40は、図6に示す処理手順を実行することで、機械学習部41として機能する。 In this embodiment, the control unit 40 functions as a machine learning unit 41 by executing the processing procedure shown in FIG. 6.

(ティーチ部の処理)
次に、実施形態に係る加工装置10が実行するティーチ部45の処理の一例を説明する。図7は、実施形態に係るティーチ部45に関する処理手順の一例を示すフローチャートである。図7に示す処理手順は、制御ユニット40が制御プログラム201を実行することで実現される。図7に示す処理手順は、例えば、加工装置10でティーチ作業を行う場合等に実行される。
(Teach section processing)
Next, an example of processing of the teach unit 45 executed by the processing device 10 according to the embodiment will be described. Fig. 7 is a flowchart showing an example of a processing procedure related to the teach unit 45 according to the embodiment. The processing procedure shown in Fig. 7 is realized by the control unit 40 executing the control program 201. The processing procedure shown in Fig. 7 is executed, for example, when a teach operation is performed by the processing device 10.

図7に示すように、制御ユニット40は、ウエーハ100の表面101を撮像した画像を取得する(ステップ2001)。制御ユニット40は、ウエーハ100の表面101に形成されたキーパターンと、該キーパターンからストリート103の距離とを登録する(ステップ2002)。加工前にウエーハ100を撮像して分割予定ラインの位置を検出するオートアライメントでは、キーパターンを手掛かりにストリート103の位置の割り出しを自動的に実施する。 As shown in FIG. 7, the control unit 40 acquires an image of the surface 101 of the wafer 100 (step 2001). The control unit 40 registers the key pattern formed on the surface 101 of the wafer 100 and the distance from the key pattern to the street 103 (step 2002). In auto-alignment, which images the wafer 100 before processing and detects the position of the planned division line, the position of the street 103 is automatically determined using the key pattern as a clue.

図8は、実施形態に係るキーパターンとストリートとの関係の一例を示す図である。図8に示すように、制御ユニット40は、画像からターゲットとなるキーパターン120とストリート103との位置関係を認識し、キーパターン120とストリート103との距離130を検出し、キーパターン120と距離130とを紐づけて登録する。制御ユニット40は、複数のキーパターン120とストリート103との距離130を検出して登録してもよい。 Figure 8 is a diagram showing an example of the relationship between a key pattern and a street according to an embodiment. As shown in Figure 8, the control unit 40 recognizes the positional relationship between a target key pattern 120 and a street 103 from an image, detects a distance 130 between the key pattern 120 and the street 103, and links and registers the key pattern 120 and the distance 130. The control unit 40 may detect and register the distances 130 between multiple key patterns 120 and the streets 103.

図7に戻り、制御ユニット40は、ストリート103が撮像ユニット12の中心に位置するように駆動手段14を制御する(ステップ2003)。制御ユニット40は、ストリート103が撮像ユニット12の中心に位置すると、処理をステップ2004に進める。なお、分割予定ラインと想定される箇所を撮像ユニット12の中心に位置づける際の中心とは、分割予定ラインが伸長する加工送り方向であるX方向と交差する割り出し送り方向であるY方向の中心である。 Returning to FIG. 7, the control unit 40 controls the driving means 14 so that the street 103 is located at the center of the imaging unit 12 (step 2003). When the street 103 is located at the center of the imaging unit 12, the control unit 40 advances the process to step 2004. Note that the center when positioning the location assumed to be the planned division line at the center of the imaging unit 12 is the center in the Y direction, which is the indexing feed direction that intersects with the X direction, which is the processing feed direction in which the planned division line extends.

制御ユニット40は、ストリート103を登録する画面をタッチパネル17に表示させる(ステップ2004)。画面は、例えば、ストリート103の位置を確認させる画像と登録ボタンとを有する。そして、制御ユニット40は、タッチパネル17を介して入力された情報に基づいて、登録するか否かを判定する(ステップ2005)。制御ユニット40は、例えば、登録ボタンが選択された場合に、登録すると判定する。制御ユニット40は、登録しないと判定した場合(ステップ2005でNo)、ストリート103を登録せずに、図7に示す処理手順を終了させる。 The control unit 40 displays a screen for registering the street 103 on the touch panel 17 (step 2004). The screen has, for example, an image for confirming the position of the street 103 and a registration button. The control unit 40 then determines whether or not to register based on information input via the touch panel 17 (step 2005). For example, the control unit 40 determines to register when the registration button is selected. When the control unit 40 determines not to register (No in step 2005), it ends the processing procedure shown in FIG. 7 without registering the street 103.

また、制御ユニット40は、登録すると判定した場合(ステップ2005でYes)、処理をステップ2006に進める。制御ユニット40は、ウエーハ100のストリート103を登録する(ステップ2006)。制御ユニット40は、例えば、撮像ユニット412の中心に位置付けた位置をストリート103として登録する。制御ユニット40は、ステップ2006が終了すると、図7に示す処理手順を終了させる。 If the control unit 40 determines to register (Yes in step 2005), the process proceeds to step 2006. The control unit 40 registers the street 103 of the wafer 100 (step 2006). For example, the control unit 40 registers a position positioned at the center of the imaging unit 412 as the street 103. When step 2006 ends, the control unit 40 ends the process procedure shown in FIG. 7.

本実施形態では、制御ユニット40は、図7に示す処理手順を実行することで、ティーチ部45として機能する。 In this embodiment, the control unit 40 functions as the teach section 45 by executing the processing procedure shown in FIG. 7.

(オートアライメント時の処理概要)
次に、実施形態に係る加工装置10が実行するオートアライメント時の誤加工を防止する処理の一例を説明する。図9は、実施形態に係る加工装置10のオートアライメント時の処理手順の一例を示すフローチャートである。図9に示す処理手順は、制御ユニット40が制御プログラム201を実行することで実現される。図9に示す処理手順は、ウエーハ100を載置したチャックテーブル11が撮像ユニット12の撮像位置に配置された状態等で実行される。
(Auto alignment process overview)
Next, an example of a process for preventing erroneous processing during auto-alignment executed by the processing apparatus 10 according to the embodiment will be described. Fig. 9 is a flowchart showing an example of a process procedure during auto-alignment of the processing apparatus 10 according to the embodiment. The process procedure shown in Fig. 9 is realized by the control unit 40 executing the control program 201. The process procedure shown in Fig. 9 is executed in a state where the chuck table 11 on which the wafer 100 is placed is disposed at the imaging position of the imaging unit 12, etc.

図9に示すように、制御ユニット40は、加工すべきウエーハ100を撮像ユニット12で撮像する(ステップ3001)。制御ユニット40は、例えば、撮像ユニット12にウエーハ100の表面101を撮像させ、撮像された画像を取得する。制御ユニット40は、ステップ3001の処理が終了すると、処理をステップ3002に進める。 As shown in FIG. 9, the control unit 40 images the wafer 100 to be processed with the imaging unit 12 (step 3001). The control unit 40, for example, causes the imaging unit 12 to image the surface 101 of the wafer 100 and acquires the captured image. When the process of step 3001 ends, the control unit 40 advances the process to step 3002.

制御ユニット40は、パターンマッチングにより、画像からキーパターン120を検出する(ステップ3002)。制御ユニット40は、例えば、取得した画像を解析することで、事前に登録されたキーパターンと一致または類似するキーパターン120を検出する。制御ユニット40は、ステップ3002の処理が終了すると、処理をステップ3003に進める。 The control unit 40 detects the key pattern 120 from the image by pattern matching (step 3002). The control unit 40 detects the key pattern 120 that matches or is similar to a pre-registered key pattern, for example, by analyzing the acquired image. When the control unit 40 finishes the process of step 3002, it advances the process to step 3003.

制御ユニット40は、キーパターン120に基づいてウエーハ100のストリート103を検出する(ステップ3003)。制御ユニット40は、例えば、キーパターン120と該キーパターン120に紐付けられた距離130とに基づいて、キーパターン120から距離130だけ離れた位置をストリート103として検出する。制御ユニット40は、ステップ3003の処理が終了すると、処理をステップ3004に進める。 The control unit 40 detects the street 103 of the wafer 100 based on the key pattern 120 (step 3003). For example, based on the key pattern 120 and the distance 130 associated with the key pattern 120, the control unit 40 detects a position that is a distance 130 away from the key pattern 120 as the street 103. When the process of step 3003 ends, the control unit 40 advances the process to step 3004.

制御ユニット40は、検出したストリート103を撮像ユニット12の中心に位置づけて撮像する(ステップ3004)。制御ユニット40は、例えば、検出したストリート103が撮像ユニット12の中心に位置するように駆動手段14を駆動させ、ウエーハ100のストリート103の部分を撮像ユニット12に撮像させる制御を行う。制御ユニット40は、ステップ3004の処理が終了すると、処理をステップ3005に進める。 The control unit 40 positions the detected street 103 at the center of the imaging unit 12 and images it (step 3004). The control unit 40, for example, drives the driving means 14 so that the detected street 103 is located at the center of the imaging unit 12, and controls the imaging unit 12 to image the street 103 portion of the wafer 100. When the processing of step 3004 is completed, the control unit 40 advances the processing to step 3005.

制御ユニット40は、撮像された画像を機械学習部41に入力する(ステップ3005)。制御ユニット40は、例えば、撮像された画像を機械学習部41に入力することで、機械学習部41で学習済みプログラム202が実行され、画像がOK画像であるかNG画像であるかが判定される。制御ユニット40は、機械学習部41が出力した判定結果を取得すると、処理をステップ3006に進める。 The control unit 40 inputs the captured image to the machine learning unit 41 (step 3005). For example, the control unit 40 inputs the captured image to the machine learning unit 41, which executes the learned program 202 and determines whether the image is an OK image or an NG image. When the control unit 40 acquires the determination result output by the machine learning unit 41, it proceeds to step 3006.

制御ユニット40は、判定結果がOK画像であるか否かを判定する(ステップ3006)。制御ユニット40は、例えば、機械学習部41が出力した判定結果がOK画像を示している場合に、判定結果がOKであると判定する。制御ユニット40は、判定結果がOK画像であると判定した場合(ステップ3006でYes)、処理をステップ3007に進める。 The control unit 40 determines whether the judgment result is an OK image (step 3006). For example, when the judgment result output by the machine learning unit 41 indicates an OK image, the control unit 40 determines that the judgment result is OK. When the control unit 40 determines that the judgment result is an OK image (Yes in step 3006), the control unit 40 advances the process to step 3007.

制御ユニット40は、ウエーハ100の加工を制御する(ステップ3007)。制御ユニット40は、例えば、ストリート103の上面高さに応じて切削ブレード24を上下させるように制御することで、切り込み深さを制御しながら切削溝をウエーハ100に形成する。より詳細には、制御ユニット40は、駆動手段14によってY軸方向に沿って切削ブレード24を移動させ、Z軸移動手段15によってZ軸方向に沿って上面高さに応じた位置に切削ブレード24を位置付けることで、ストリート103に切削溝を形成する。制御ユニット40は、ステップ3007の処理が終了すると、図9に示す処理手順を終了させる。 The control unit 40 controls the processing of the wafer 100 (step 3007). The control unit 40 forms a cutting groove in the wafer 100 while controlling the cutting depth, for example by controlling the cutting blade 24 to move up and down according to the top surface height of the street 103. More specifically, the control unit 40 moves the cutting blade 24 along the Y-axis direction by the driving means 14, and positions the cutting blade 24 along the Z-axis direction by the Z-axis moving means 15 at a position according to the top surface height, thereby forming a cutting groove in the street 103. When the process of step 3007 is completed, the control unit 40 ends the process procedure shown in FIG. 9.

また、制御ユニット40は、判定結果がOK画像ではないと判定した場合(ステップ3006でNo)、処理をステップ3008に進める。制御ユニット40は、上記の警告処理を実行する(ステップ3008)。制御ユニット40は、例えば、警告処理を実行することで、ストリート103の位置が正しくないことを警告し、加工ユニット13の加工を停止または保留させる。制御ユニット40は、ステップ3008の処理が終了すると、図9に示す処理手順を終了させる。 Furthermore, if the control unit 40 determines that the image is not an OK image (No in step 3006), the control unit 40 advances the process to step 3008. The control unit 40 executes the above-mentioned warning process (step 3008). For example, by executing the warning process, the control unit 40 warns that the position of the street 103 is incorrect, and stops or suspends processing by the processing unit 13. When the process of step 3008 ends, the control unit 40 ends the processing procedure shown in FIG. 9.

図9に示す処理手順では、制御ユニット40は、ステップ3001からステップ3004の一連の処理を実行することで、アライメント部46として機能する。制御ユニット40は、ステップ3005の処理を実行することで、入力部42として機能する。制御ユニット40は、ステップ3006からステップ3008の処理を実行することで、制御部43として機能する。 In the processing procedure shown in FIG. 9, the control unit 40 functions as the alignment section 46 by executing a series of processes from step 3001 to step 3004. The control unit 40 functions as the input section 42 by executing the process of step 3005. The control unit 40 functions as the control section 43 by executing the processes from step 3006 to step 3008.

以上説明したように、加工装置10は、学習済みプログラム202を用いて、ウエーハ100のストリート103を撮像した画像がOK画像であるかNG画像であるかを判定し、NG画像であると判定された場合、警告処理を実行する。加工装置10は、学習済みプログラム202によってOK画像であると判定された場合、ウエーハ100の加工を行う。これにより、加工装置10は、実施に撮像したOK画像とNG画像とを有する教師データを学習した学習済みプログラム202の判定結果を用いることで、画像の判定精度を向上させることができる。その結果、加工装置10は、画像の中心に分割予定ラインが撮像されていない場合に、ストリート(分割予定ライン)103でないウエーハ100の誤った位置を加工することを防止できる。さらに、加工装置10は、実際の画像を学習した学習済みプログラム202を用いることで、ウエーハ100やデバイス104ごとに適した判定を行うことができるため、利便性を向上させることができる。 As described above, the processing device 10 uses the learned program 202 to determine whether the image of the street 103 of the wafer 100 is an OK image or an NG image, and executes a warning process if it is determined to be an NG image. If the learned program 202 determines that the image is OK, the processing device 10 processes the wafer 100. As a result, the processing device 10 can improve the accuracy of image determination by using the determination result of the learned program 202 that has learned teacher data having OK images and NG images actually captured. As a result, the processing device 10 can prevent processing an incorrect position of the wafer 100 that is not the street (planned division line) 103 when the planned division line is not captured in the center of the image. Furthermore, the processing device 10 can make a suitable determination for each wafer 100 or device 104 by using the learned program 202 that has learned actual images, thereby improving convenience.

また、加工装置10は、ウエーハ100の表面101を撮像した画像をOK画像とNG画像とにラベリングした画像データ300を教師データとして学習済みプログラム202に学習させることができる。これにより、加工装置10は、学習済みプログラム202に入力した画像に対する学習済みプログラム202の判定精度を向上させることができる。その結果、加工装置10は、分割予定ラインでないウエーハ100の誤った位置を加工することをより一層確実に防止できる。 The processing device 10 can also have the learned program 202 learn image data 300, which is obtained by labeling an image of the surface 101 of the wafer 100 as an OK image or an NG image, as teacher data. This allows the processing device 10 to improve the accuracy of the learned program 202 in determining the image input to the learned program 202. As a result, the processing device 10 can more reliably prevent processing the wrong position on the wafer 100 that is not the planned dividing line.

また、加工装置10は、チャックテーブル11に載置された加工すべきウエーハ100を撮像し、パターンマッチングにより該キーパターン120を検出することでウエーハ100のストリート103を検出し、検出されたストリート103を撮像ユニット12の中心に位置づけて撮像することができる。これにより、加工装置10は、学習済みプログラム202に入力した画像自体の精度を向上させることができる。その結果、加工装置10は、分割予定ラインでないウエーハ100の誤った位置を加工することをより一層確実に防止できる。加工装置10は、例えば、オートアライメントに適用することで、キーパターンを手掛かりにストリート103の位置の自動で割り出しても、ウエーハ100の誤った位置を加工することを防止できる。 The processing device 10 also captures an image of the wafer 100 to be processed placed on the chuck table 11, detects the key pattern 120 by pattern matching to detect the street 103 of the wafer 100, and positions the detected street 103 at the center of the imaging unit 12 and captures the image. This allows the processing device 10 to improve the accuracy of the image itself input to the learned program 202. As a result, the processing device 10 can more reliably prevent processing an incorrect position on the wafer 100 that is not a planned dividing line. For example, by applying this to auto-alignment, the processing device 10 can prevent processing an incorrect position on the wafer 100 even if the position of the street 103 is automatically determined using the key pattern as a clue.

[変形例]
上記実施形態の変形例に係る加工装置10を以下に説明する。図10は、実施形態の変形例に係る加工装置10の構成例を模式的に示す斜視図である。図11は、図10に示すレーザー照射ユニットの構成例を示すブロック図である。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
[Modification]
A processing device 10 according to a modified example of the above embodiment will be described below. Fig. 10 is a perspective view showing a schematic configuration example of the processing device 10 according to the modified example of the embodiment. Fig. 11 is a block diagram showing a configuration example of the laser irradiation unit shown in Fig. 10. In the following embodiments, the same parts are designated by the same reference numerals, and duplicated descriptions will be omitted.

図10に示す加工装置10は、ウエーハ100にレーザー光線を照射するレーザー加工装置である。加工装置10は、基本的な構成として、ウエーハ100を保持するチャックテーブル11、撮像ユニット12、加工ユニット13、駆動手段14、Z軸移動手段15、タッチパネル17及び制御ユニット40を備える。加工ユニット13は、上記の切削ブレード24に代わり、レーザー照射ユニット5を有する。 The processing device 10 shown in FIG. 10 is a laser processing device that irradiates a laser beam onto a wafer 100. The processing device 10 basically comprises a chuck table 11 that holds the wafer 100, an imaging unit 12, a processing unit 13, a driving means 14, a Z-axis moving means 15, a touch panel 17, and a control unit 40. The processing unit 13 has a laser irradiation unit 5 instead of the cutting blade 24 described above.

図11に示すように、レーザー照射ユニット5は、発振器51と、強度調整部(アッテネータ)52と、偏光方向設定部53と、ミラー素子54と、集光レンズ55と、を備える。レーザー照射ユニット5は、制御ユニット40によって制御される。 As shown in FIG. 11, the laser irradiation unit 5 includes an oscillator 51, an intensity adjustment unit (attenuator) 52, a polarization direction setting unit 53, a mirror element 54, and a condenser lens 55. The laser irradiation unit 5 is controlled by the control unit 40.

発振器51は、所定波長のレーザー光線を発振するためのものであり、例えばYAGレーザー発振器やYVO4レーザー発振器等からなるレーザー光線発振器、1064nm等の赤外線波長域のレーザー光線を発振する発振器等によって構成される。強度調整部52は、1/2波長板521と、モータ522と、偏光ビームスプリッタ523と、アブソーバ524とを備える。 The oscillator 51 is for oscillating a laser beam of a predetermined wavelength, and is composed of, for example, a laser beam oscillator such as a YAG laser oscillator or a YVO4 laser oscillator, or an oscillator that oscillates a laser beam in the infrared wavelength range such as 1064 nm. The intensity adjustment unit 52 includes a half-wave plate 521, a motor 522, a polarizing beam splitter 523, and an absorber 524.

1/2波長板521は、モータ522によって回動可能な状態で発振器51の後段に配設されている。1/2波長板521は、その回動角度に応じて発振器51が発振したレーザー光線LBの直線偏光方向を変化させる。偏光ビームスプリッタ523は、1/2波長板521を通過したレーザー光線のうち、所定の直線偏光方向を有するレーザー光線を偏光方向設定部53に向けて透過すると共に、所定の直線偏光方向以外の直線偏光方向を有するレーザー光線をアブソーバ524側に分岐する。アブソーバ524は、偏光ビームスプリッタ523によって分岐されたレーザー光線を吸収するためのものであり、レーザー光線を良好に吸収すべく例えばつや消し黒色系金属によって構成するとよい。 The half-wave plate 521 is disposed after the oscillator 51 in a state in which it can be rotated by the motor 522. The half-wave plate 521 changes the linear polarization direction of the laser beam LB oscillated by the oscillator 51 according to the rotation angle. The polarizing beam splitter 523 transmits the laser beam having a predetermined linear polarization direction among the laser beams that have passed through the half-wave plate 521 toward the polarization direction setting unit 53, and branches the laser beam having a linear polarization direction other than the predetermined linear polarization direction to the absorber 524 side. The absorber 524 is for absorbing the laser beams branched by the polarizing beam splitter 523, and may be made of, for example, a matte black metal to absorb the laser beam well.

偏光方向設定部53は、1/2波長板531と、モータ532とを備える。1/2波長板531は、モータ532によって回動可能な状態で偏光ビームスプリッタ523の後段に配設されている。1/2波長板531は、その回動角度に応じて偏光ビームスプリッタ523を透過したレーザー光線の直線偏光方向を変化させる。偏光方向設定部53は、本発明に係る偏光方向設定手段として機能する。ミラー素子54は、1/2波長板531を通過したレーザー光線を集光レンズ55側に向けて反射させるためのものである。集光レンズ55は、ウエーハ100と対向するように配設され、ウエーハ100の内部に集光点を位置付けてミラー素子54によって反射されたレーザー光線を集光するものである。 The polarization direction setting unit 53 includes a half-wave plate 531 and a motor 532. The half-wave plate 531 is arranged after the polarizing beam splitter 523 in a state in which it can be rotated by the motor 532. The half-wave plate 531 changes the linear polarization direction of the laser beam transmitted through the polarizing beam splitter 523 according to the rotation angle. The polarization direction setting unit 53 functions as a polarization direction setting means according to the present invention. The mirror element 54 is for reflecting the laser beam that has passed through the half-wave plate 531 toward the condenser lens 55. The condenser lens 55 is arranged to face the wafer 100, and focuses the laser beam reflected by the mirror element 54 by positioning the focal point inside the wafer 100.

図11に示す一例では、集光レンズ55は、例えば、集光器として機能する。そして、発振器51と集光レンズ55との間に配設された強度調整部52及び偏光方向設定部53は、例えば、光学系として機能する。 In the example shown in FIG. 11, the focusing lens 55 functions, for example, as a focusing device. The intensity adjustment unit 52 and the polarization direction setting unit 53 arranged between the oscillator 51 and the focusing lens 55 function, for example, as an optical system.

以上、本実施形態の変形例に係る加工装置10の構成例について説明した。なお、図8を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る加工装置10の構成は係る例に限定されない。本実施形態に係る加工装置10の機能構成は、仕様や運用に応じて柔軟に変形可能である。 A configuration example of the processing device 10 according to a modified example of this embodiment has been described above. Note that the above configuration described using FIG. 8 is merely an example, and the configuration of the processing device 10 according to this embodiment is not limited to this example. The functional configuration of the processing device 10 according to this embodiment can be flexibly modified according to the specifications and operation.

実施形態の変形例に係る加工装置10は、分割予定ラインであるストリート103で区画されたウエーハ100を、ストリート103に沿って加工する。加工装置10は、例えば、ウエーハ100に対して透過性を有する波長のレーザー光線を照射し、ウエーハ100の内部にストリート103に沿って改質層(変質領域)を連続的に形成する。さらに、加工装置10は、この改質層が形成されることによって強度が低下したストリート103に沿って外力を加えることにより、ウエーハ100を分割する機能を有しても良い。また、加工装置10は、例えば、ウエーハ100に対して吸収性を有する波長のレーザー光線を照射し、ウエーハ100の表面にストリート103に沿って切削溝を形成する。切削溝はウエーハ100をハーフカットする深さでもよいし、フルカットする深さがあってもよい。 The processing device 10 according to the modified embodiment processes the wafer 100 divided by the streets 103, which are the planned dividing lines, along the streets 103. The processing device 10, for example, irradiates the wafer 100 with a laser beam having a wavelength that is transparent to the wafer 100, and continuously forms a modified layer (degraded region) along the streets 103 inside the wafer 100. Furthermore, the processing device 10 may have a function of dividing the wafer 100 by applying an external force along the streets 103 whose strength has been reduced by the formation of the modified layer. In addition, the processing device 10 irradiates the wafer 100 with a laser beam having a wavelength that is absorbent to the wafer 100, and forms a cutting groove along the streets 103 on the surface of the wafer 100. The cutting groove may have a depth that half-cuts the wafer 100, or may have a depth that fully cuts the wafer 100.

加工装置10は、上述した図9に示す処理手順を用いることができる。例えば、加工装置10は、ステップ3007の処理をレーザー照射ユニット5で加工する処理に置き換えればよい。 The processing device 10 can use the processing procedure shown in FIG. 9 described above. For example, the processing device 10 can replace the processing of step 3007 with processing using the laser irradiation unit 5.

例えば、加工装置10の制御ユニット40は、ステップ3005で判定結果がOK画像であると判定した場合(ステップ3005でYes)、ウエーハ100の加工を制御する(ステップ3007)。制御ユニット40は、例えば、ストリート103の一端部を集光レンズ55の鉛直下方に位置付け、レーザー光線LBを発振器51から出射させた状態で、加工ユニット13に対してチャックテーブル11をX軸移動手段22でX軸方向に相対的に加工送りさせる。制御ユニット40は、ステップ3007の処理が終了すると、図9に示す処理手順を終了させる。 For example, when the control unit 40 of the processing device 10 determines in step 3005 that the image is an OK image (Yes in step 3005), it controls the processing of the wafer 100 (step 3007). For example, the control unit 40 positions one end of the street 103 vertically below the condenser lens 55, and while the laser beam LB is being emitted from the oscillator 51, causes the chuck table 11 to be processed and fed in the X-axis direction relative to the processing unit 13 by the X-axis moving means 22. When the processing of step 3007 is completed, the control unit 40 ends the processing procedure shown in FIG. 9.

また、制御ユニット40は、判定結果がOK画像ではないと判定した場合(ステップ3006でNo)、処理をステップ3008に進める。制御ユニット40は、上記の警告処理を実行する(ステップ3008)。制御ユニット40は、例えば、警告処理を実行することで、ストリート103の位置が正しくないことを警告し、加工ユニット13の加工を停止または保留させる。制御ユニット40は、ステップ3008の処理が終了すると、図9に示す処理手順を終了させる。 Furthermore, if the control unit 40 determines that the image is not an OK image (No in step 3006), the control unit 40 advances the process to step 3008. The control unit 40 executes the above-mentioned warning process (step 3008). For example, by executing the warning process, the control unit 40 warns that the position of the street 103 is incorrect, and stops or suspends processing by the processing unit 13. When the process of step 3008 ends, the control unit 40 ends the processing procedure shown in FIG. 9.

実施形態の変形例に係る加工装置10は、実施形態と同様に、学習済みプログラム202を用いて、ウエーハ100のストリート103を撮像した画像がOK画像であるかNG画像であるかを判定し、NG画像であると判定された場合、警告処理を実行する。加工装置10は、学習済みプログラム202によってOK画像であると判定された場合、ウエーハ100の加工を行う。これにより、加工装置10は、実施に撮像したOK画像とNG画像とを有する教師データを学習した学習済みプログラム202の判定結果を用いることで、画像の判定精度を向上させることができる。その結果、加工装置10は、画像の中心に分割予定ラインが撮像されていない場合に、分割予定ラインでないウエーハ100の誤った位置を加工することを防止できる。さらに、加工装置10は、実際の画像を学習した学習済みプログラム202を用いることで、ウエーハ100やデバイス104ごとに適した判定を行うことができるため、利便性を向上させることができる。 The processing device 10 according to the modified embodiment uses the learned program 202 to determine whether an image of the street 103 of the wafer 100 is an OK image or an NG image, as in the embodiment, and executes a warning process if it is determined to be an NG image. If the learned program 202 determines that the image is an OK image, the processing device 10 processes the wafer 100. As a result, the processing device 10 can improve the accuracy of image determination by using the determination result of the learned program 202 that has learned teacher data having an OK image and an NG image actually captured. As a result, the processing device 10 can prevent processing an incorrect position of the wafer 100 that is not a planned dividing line when the planned dividing line is not captured in the center of the image. Furthermore, the processing device 10 can make a suitable determination for each wafer 100 or device 104 by using the learned program 202 that has learned actual images, thereby improving convenience.

なお、本発明は、上記実施形態に限定されるものではない。即ち、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。 The present invention is not limited to the above embodiment. In other words, the present invention can be implemented in various modifications without departing from the gist of the invention.

例えば、上記実施形態及び変形例では、加工装置10は、制御ユニット40が機械学習部41、入力部42、制御部43、ラベリング部44、ティーチ部45及ぶアライメント部46を備える場合について説明したが、これに限定されない。例えば、加工装置10は、ラベリング部44、ティーチ部45及ぶアライメント部46を備えない、あるいは、ラベリング部44、ティーチ部45及ぶアライメント部46のいずれかを備える構成としてもよい。 For example, in the above embodiment and modified example, the processing device 10 has been described as having a control unit 40 including a machine learning unit 41, an input unit 42, a control unit 43, a labeling unit 44, a teach unit 45, and an alignment unit 46, but is not limited to this. For example, the processing device 10 may be configured not to include the labeling unit 44, the teach unit 45, and the alignment unit 46, or may include any of the labeling unit 44, the teach unit 45, and the alignment unit 46.

上記実施形態及び変形例では、学習済みプログラム202は、ウエーハ100の種類ごとに機械学習を行って作成される場合について説明したが、これに限定されない。学習済みプログラム202は、複数種類のウエーハ100で機械学習を行って作成されてもよい。これにより、学習済みプログラム202は、様々な種類のウエーハ100を機械学習した汎用的なプログラムとすることで、ウエーハ100の種類ごとに作成する必要がなくなり、汎用性を高くすることができる。 In the above embodiment and modified examples, the learned program 202 is created by performing machine learning for each type of wafer 100, but this is not limited to the above. The learned program 202 may be created by performing machine learning on multiple types of wafers 100. In this way, the learned program 202 can be made a general-purpose program that has been machine-learned for various types of wafers 100, eliminating the need to create the program for each type of wafer 100 and increasing versatility.

10 加工装置
11 チャックテーブル
12 撮像ユニット
13 加工ユニット
17 タッチパネル
18 LEDライト
30 ストレージ
31 画像記憶部
40 制御ユニット
41 機械学習部
42 入力部
43 制御部
44 ラベリング部
45 ティーチ部
46 アライメント部
100 ウエーハ(被加工物)
103 ストリート(分割予定ライン)
104 デバイス
201 制御プログラム
202 学習済みプログラム
300 画像データ(教師データ)
REFERENCE SIGNS LIST 10 Processing device 11 Chuck table 12 Imaging unit 13 Processing unit 17 Touch panel 18 LED light 30 Storage 31 Image storage unit 40 Control unit 41 Machine learning unit 42 Input unit 43 Control unit 44 Labeling unit 45 Teach unit 46 Alignment unit 100 Wafer (workpiece)
103 Street (Planned division line)
104 Device 201 Control program 202 Learned program 300 Image data (teaching data)

Claims (5)

デバイス領域が複数の分割予定ラインによって区画された表面に形成された被加工物を加工する加工装置であって、
該加工装置は、
被加工物を保持する保持テーブルと、
該保持テーブルをX方向に加工送りする加工送りユニットと、
該保持テーブルに保持された被加工物に加工溝を形成する加工ユニットと、
該加工ユニットをX方向と交差するY方向に割り出し送りする割り出し送りユニットと、
該保持テーブルに保持された被加工物を撮像する撮像ユニットと、
制御ユニットと、
を備え、
該制御ユニットは、
被加工物の表面を撮像した画像の中心に該分割予定ラインが位置するOK画像と、該画像の中心に該分割予定ラインが位置しないNG画像とを有する教師データを学習した学習済みプログラムで、入力された画像を処理し、入力された画像がOK画像であるかNG画像であるかを判定する機械学習部と、
該保持テーブルに載置された加工すべき被加工物の該分割予定ラインを撮像した画像を該機械学習部に入力する入力部と、
該機械学習部がOK画像と判定した場合に加工すべき被加工物を加工するように該加工ユニットを制御し、該機械学習部がNG画像と判定した場合に警告処理を実行する制御部と、
を備えることを特徴とする加工装置。
A processing apparatus for processing a workpiece having a device region formed on a surface thereof partitioned by a plurality of planned division lines, comprising:
The processing device is
A holding table for holding the workpiece;
a processing feed unit that feeds the holding table in the X direction;
a machining unit for forming a machining groove in the workpiece held on the holding table;
an indexing feed unit that indexes and feeds the processing unit in a Y direction intersecting with the X direction;
an imaging unit for imaging the workpiece held on the holding table;
A control unit;
Equipped with
The control unit
a machine learning unit that processes an input image and determines whether the input image is an OK image or an NG image with a trained program that has trained with teacher data having an OK image in which the planned division line is located at the center of an image obtained by capturing an image of the surface of a workpiece and an NG image in which the planned division line is not located at the center of the image;
an input unit that inputs an image of the planned dividing line of the workpiece to be processed placed on the holding table into the machine learning unit;
a control unit that controls the processing unit to process the workpiece to be processed when the machine learning unit determines that the image is an OK image, and executes a warning process when the machine learning unit determines that the image is an NG image;
A processing apparatus comprising:
該制御ユニットは、
被加工物の表面を撮像した画像をOK画像とNG画像とにラベリングし画像データとして画像記録部に記憶するラベリング部をさらに備え、
該機械学習部は、該画像記録部の該ラベリング部でラベリングされた該画像データを教師データの一部として学習した学習済みプログラムを用いて、入力された画像がOK画像であるかNG画像であるかを判定する
請求項1に記載の加工装置。
The control unit
A labeling unit is further provided for labeling the captured image of the surface of the workpiece into a good image and a bad image and storing the label as image data in the image recording unit.
The processing device according to claim 1 , wherein the machine learning unit determines whether an input image is an OK image or an NG image using a trained program that has learned the image data labeled by the labeling unit of the image recording unit as part of teacher data.
該制御ユニットは、
被加工物の表面に形成されたキーパターンと、該キーパターンから該分割予定ラインの距離と、を登録するティーチ部と、
該保持テーブルに載置された加工すべき被加工物を撮像し、パターンマッチングにより該キーパターンを検出することで被加工物の該分割予定ラインを検出し、検出された該分割予定ラインを該撮像ユニットの中心に位置づけて撮像するアライメント部と、
をさらに備え、
該入力部は、該アライメント部で撮像された画像を該機械学習部に入力することを特徴とする請求項1または2に記載の加工装置。
The control unit
A teach unit that registers a key pattern formed on a surface of a workpiece and a distance from the key pattern to the planned division line;
an alignment unit that captures an image of a workpiece to be processed placed on the holding table, detects the key pattern by pattern matching to detect the division line of the workpiece, and positions the detected division line at the center of the imaging unit to capture an image;
Further equipped with
The processing apparatus according to claim 1 or 2, wherein the input unit inputs an image captured by the alignment unit to the machine learning unit.
該加工ユニットは、
回転可能なスピンドルの先端に保持された切削ブレードを有することを特徴とする
請求項1から3のいずれか1項に記載の加工装置。
The processing unit includes:
4. The processing device according to claim 1, further comprising a cutting blade held at the tip of a rotatable spindle.
該加工ユニットは、
レーザー光線を発振する発振器と、
該発振器が発振したレーザー光線を集光し該保持テーブルに保持された被加工物に照射する集光器と、
該発振器と該集光器との間に配設されレーザー光線を該発振器まで導く光学系と、
を備えることを特徴とする
請求項1または2に記載の加工装置。
The processing unit includes:
An oscillator that emits a laser beam;
a condenser that condenses the laser beam oscillated by the oscillator and irradiates the workpiece held on the holding table;
an optical system disposed between the oscillator and the condenser for directing a laser beam to the oscillator;
The processing apparatus according to claim 1 or 2, comprising:
JP2020119466A 2020-07-10 2020-07-10 Processing Equipment Active JP7462497B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020119466A JP7462497B2 (en) 2020-07-10 2020-07-10 Processing Equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020119466A JP7462497B2 (en) 2020-07-10 2020-07-10 Processing Equipment

Publications (2)

Publication Number Publication Date
JP2022016155A JP2022016155A (en) 2022-01-21
JP7462497B2 true JP7462497B2 (en) 2024-04-05

Family

ID=80121238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020119466A Active JP7462497B2 (en) 2020-07-10 2020-07-10 Processing Equipment

Country Status (1)

Country Link
JP (1) JP7462497B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005166991A (en) 2003-12-03 2005-06-23 Disco Abrasive Syst Ltd Alignment apparatus and processing apparatus
JP2008004822A (en) 2006-06-23 2008-01-10 Disco Abrasive Syst Ltd Method for setting processing condition of wafer
JP2011142126A (en) 2010-01-05 2011-07-21 Disco Abrasive Syst Ltd Dividing method
JP2012151225A (en) 2011-01-18 2012-08-09 Disco Abrasive Syst Ltd Method for measuring cut groove

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005166991A (en) 2003-12-03 2005-06-23 Disco Abrasive Syst Ltd Alignment apparatus and processing apparatus
JP2008004822A (en) 2006-06-23 2008-01-10 Disco Abrasive Syst Ltd Method for setting processing condition of wafer
JP2011142126A (en) 2010-01-05 2011-07-21 Disco Abrasive Syst Ltd Dividing method
JP2012151225A (en) 2011-01-18 2012-08-09 Disco Abrasive Syst Ltd Method for measuring cut groove

Also Published As

Publication number Publication date
JP2022016155A (en) 2022-01-21

Similar Documents

Publication Publication Date Title
KR102355837B1 (en) Laser machining apparatus
JP5198203B2 (en) Processing equipment
US20160172182A1 (en) Laser processing apparatus
US20210402635A1 (en) Processing apparatus
US11626307B2 (en) Processing apparatus
JP2010000517A (en) Device and program for working workpiece
JP2024096180A (en) Processing device
JP7462497B2 (en) Processing Equipment
JP6698440B2 (en) Processing equipment
CN113927762A (en) Processing device
JP7455014B2 (en) processing equipment
JP6918421B2 (en) Processing equipment and how to use the processing equipment
KR20220133780A (en) Processing apparatus
JP2022016154A (en) Processing device
JP2015020177A (en) Laser machining apparatus
JPH106049A (en) Laser beam machining apparatus and method thereof
JP7496711B2 (en) Laser processing equipment
JP7087264B2 (en) Auxiliary method and auxiliary device
JP7482653B2 (en) Marking Method
JP7350437B2 (en) processing equipment
JP6826750B2 (en) Imaging device and processing control system
JPH07335722A (en) Alignment method of substrate
JP2024087252A (en) Processing device and registration method
JP7349841B2 (en) Chip manufacturing method
JP2024093999A (en) Processing device and registration method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230525

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240229

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7462497

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150