JP2021044481A - Processing device - Google Patents

Processing device Download PDF

Info

Publication number
JP2021044481A
JP2021044481A JP2019167033A JP2019167033A JP2021044481A JP 2021044481 A JP2021044481 A JP 2021044481A JP 2019167033 A JP2019167033 A JP 2019167033A JP 2019167033 A JP2019167033 A JP 2019167033A JP 2021044481 A JP2021044481 A JP 2021044481A
Authority
JP
Japan
Prior art keywords
dimensional code
unit
image
region
workpiece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019167033A
Other languages
Japanese (ja)
Other versions
JP7455459B2 (en
Inventor
崇史 大森
Takashi Omori
崇史 大森
論 宮田
Satoshi Miyata
論 宮田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disco Corp
Original Assignee
Disco Abrasive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disco Abrasive Systems Ltd filed Critical Disco Abrasive Systems Ltd
Priority to JP2019167033A priority Critical patent/JP7455459B2/en
Publication of JP2021044481A publication Critical patent/JP2021044481A/en
Application granted granted Critical
Publication of JP7455459B2 publication Critical patent/JP7455459B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Constituent Portions Of Griding Lathes, Driving, Sensing And Control (AREA)
  • Finish Polishing, Edge Sharpening, And Grinding By Specific Grinding Devices (AREA)
  • Dicing (AREA)
  • Machine Tool Sensing Apparatuses (AREA)

Abstract

To provide a processing device that can properly obtain information on a workpiece.SOLUTION: A processing device includes: a chuck table with a holding surface for holding a workpiece; a processing unit that processes the workpiece held by the chuck table; an imaging unit that images the holding surface side of the chuck table and generates an image; and a control unit including a two-dimensional code extraction portion that extracts a two-dimensional code attached to the workpiece from a plurality of images generated by the imaging unit, and a two-dimensional code information storage portion that stores two-dimensional code information extracted by the control unit including code extraction portion. The two-dimensional code extraction portion extracts a two-dimensional code from one image obtained by joining the plurality of images generated by the imaging unit.SELECTED DRAWING: Figure 3

Description

本発明は、ワークピースを加工する際に用いられる加工装置に関する。 The present invention relates to a processing apparatus used when processing a workpiece.

携帯電話機やパーソナルコンピュータに代表される電子機器では、電子回路等のデバイスを備えるデバイスチップが必須の構成要素になっている。デバイスチップは、例えば、シリコン等の半導体材料でなるウェーハの表面を分割予定ライン(ストリート)で複数の領域に区画し、各領域にデバイスを形成した上で、この分割予定ラインに沿ってウェーハを分割することにより得られる。 In electronic devices such as mobile phones and personal computers, a device chip including a device such as an electronic circuit is an indispensable component. In the device chip, for example, the surface of a wafer made of a semiconductor material such as silicon is divided into a plurality of regions by a planned division line (street), a device is formed in each region, and then the wafer is placed along the planned division line. Obtained by dividing.

ウェーハを複数のデバイスチップへと分割する際には、例えば、ダイヤモンド等の砥粒を金属や樹脂等の結合剤で固めてなる環状の切削ブレードを装着した切削装置が使用される。切削ブレードを高速に回転させて、分割予定ラインに沿ってウェーハに切り込ませれば、ウェーハを複数のデバイスチップへと分割できる。 When dividing a wafer into a plurality of device chips, for example, a cutting device equipped with an annular cutting blade in which abrasive grains such as diamond are hardened with a binder such as metal or resin is used. By rotating the cutting blade at high speed and cutting into the wafer along the planned division line, the wafer can be divided into a plurality of device chips.

ところで、ウェーハのような板状のワークピースを、切削装置のような自動化された加工装置で加工する際には、予め加工装置にワークピースの情報を取得させる必要がある。このような目的のために、ウェーハに付随する1次元コード(バーコード)を加工装置で読み取る技術が提案されている(例えば、特許文献1参照)。この技術を用いれば、ワークピースの情報をオペレータが手作業で加工装置に登録しなくて良いので、人為的なミスも発生し難くなる。 By the way, when processing a plate-shaped workpiece such as a wafer with an automated processing apparatus such as a cutting apparatus, it is necessary to have the processing apparatus acquire information on the workpiece in advance. For such a purpose, a technique for reading a one-dimensional code (bar code) attached to a wafer with a processing apparatus has been proposed (see, for example, Patent Document 1). By using this technique, the operator does not have to manually register the workpiece information in the processing apparatus, so that human error is less likely to occur.

特開平9−7977号公報Japanese Unexamined Patent Publication No. 9-7977

近年では、加工装置で用いられる情報量の増加に伴い、1次元コードに比べて容量の大きい2次元コードをワークピースに付随させるのが一般的になっている。しかしながら、この加工装置は、ワークピースの狭い範囲を観察するのに適した撮像ユニットを用いて2次元コードを読み取るように構成されており、ある程度に大きい2次元コードを読み取れなかった。 In recent years, as the amount of information used in a processing apparatus has increased, it has become common to attach a two-dimensional code having a larger capacity than that of a one-dimensional code to a workpiece. However, this processing apparatus is configured to read a two-dimensional code using an imaging unit suitable for observing a narrow range of the workpiece, and cannot read a somewhat large two-dimensional code.

本発明はかかる問題点に鑑みてなされたものであり、その目的とするところは、ワークピースに関する情報を適切に取得できる加工装置を提供することである。 The present invention has been made in view of such problems, and an object of the present invention is to provide a processing apparatus capable of appropriately acquiring information on a workpiece.

本発明の一態様によれば、ワークピースを保持する保持面を有するチャックテーブルと、該チャックテーブルによって保持された該ワークピースを加工する加工ユニットと、該チャックテーブルの該保持面側を撮像して画像を生成する撮像ユニットと、該撮像ユニットによって生成される複数の画像から該ワークピースに付随する2次元コードを抽出する2次元コード抽出部と、該2次元コード抽出部で抽出された該2次元コードの情報を記憶する2次元コード情報記憶部と、を含む制御ユニットと、を備え、該2次元コード抽出部は、該撮像ユニットによって生成される複数の画像をつなぎ合わせた1つの画像から該2次元コードを抽出する加工装置が提供される。 According to one aspect of the present invention, an image is taken of a chuck table having a holding surface for holding a workpiece, a processing unit for processing the workpiece held by the chuck table, and the holding surface side of the chuck table. An imaging unit that generates an image, a two-dimensional code extraction unit that extracts a two-dimensional code associated with the workpiece from a plurality of images generated by the imaging unit, and the two-dimensional code extraction unit that extracts the two-dimensional code. A two-dimensional code information storage unit for storing two-dimensional code information and a control unit including the two-dimensional code information storage unit are provided, and the two-dimensional code extraction unit is one image obtained by joining a plurality of images generated by the image pickup unit. A processing device for extracting the two-dimensional code from the above is provided.

本発明の一態様において、該制御ユニットは、該撮像ユニットによって生成される画像内の各画素の階調を表す複数の画素値から画素値の分散を算出する分散算出部と、該撮像ユニットによって生成される画像に該2次元コードが写っているか否かを判定する際の基準となる画素値の分散を記憶する基準記憶部と、該分散算出部で算出される画素値の分散と該基準記憶部に記憶される画素値の分散とを比較して該撮像ユニットによって生成された画像に該2次元コードが写っているか否かを判定する判定部と、を更に含み、該2次元コード抽出部は、該判定部によって該2次元コードが写っていると判定された複数の画像をつなぎ合わせた1つの画像から該2次元コードを抽出することが好ましい。 In one aspect of the present invention, the control unit is composed of a dispersion calculation unit that calculates the dispersion of pixel values from a plurality of pixel values representing the gradation of each pixel in the image generated by the imaging unit, and the imaging unit. A reference storage unit that stores the dispersion of pixel values that serves as a reference for determining whether or not the two-dimensional code appears in the generated image, and the dispersion of pixel values calculated by the dispersion calculation unit and the reference. The two-dimensional code extraction includes a determination unit that compares with the dispersion of pixel values stored in the storage unit and determines whether or not the two-dimensional code appears in the image generated by the imaging unit. It is preferable that the unit extracts the two-dimensional code from one image obtained by joining a plurality of images determined by the determination unit to show the two-dimensional code.

本発明の一態様にかかる加工装置は、撮像ユニットによって生成される複数の画像からワークピースに付随する2次元コードを抽出する2次元コード抽出部と、2次元コード抽出部で抽出された2次元コードの情報を記憶する2次元コード情報記憶部と、を含む制御ユニットを備えている。 The processing apparatus according to one aspect of the present invention includes a two-dimensional code extraction unit that extracts a two-dimensional code attached to a workpiece from a plurality of images generated by an imaging unit, and a two-dimensional code extraction unit that extracts the two-dimensional code. It includes a two-dimensional code information storage unit that stores code information, and a control unit that includes the code information.

そして、制御ユニットの2次元コード抽出部は、撮像ユニットによって生成される複数の画像をつなぎ合わせた1つの画像から2次元コードを抽出する。そのため、本発明の一態様にかかる加工装置によれば、撮像ユニットの撮像できる範囲を超える大きさの2次元コードを読み取って、ワークピースに関する情報を適切に取得できる。 Then, the two-dimensional code extraction unit of the control unit extracts the two-dimensional code from one image obtained by joining a plurality of images generated by the imaging unit. Therefore, according to the processing apparatus according to one aspect of the present invention, it is possible to appropriately acquire information about the workpiece by reading a two-dimensional code having a size exceeding the range that can be imaged by the imaging unit.

図1は、切削装置を模式的に示す斜視図である。FIG. 1 is a perspective view schematically showing a cutting device. 図2は、ワークピース等を模式的に示す平面図である。FIG. 2 is a plan view schematically showing a workpiece or the like. 図3は、制御ユニット等を模式的に示す機能ブロック図である。FIG. 3 is a functional block diagram schematically showing a control unit and the like. 図4は、2次元コードを含む可能性の高い領域を模式的に示す平面図である。FIG. 4 is a plan view schematically showing a region that is likely to contain a two-dimensional code. 図5は、2次元コードが写っていると判定された複数の画像を模式的に示す図である。FIG. 5 is a diagram schematically showing a plurality of images determined to show a two-dimensional code. 図6は、画像結合部によって生成された画像を模式的に示す図である。FIG. 6 is a diagram schematically showing an image generated by the image combining portion.

添付図面を参照して、本発明の実施形態について説明する。図1は、本実施形態にかかる切削装置(加工装置)2を模式的に示す斜視図であり、図2は、ワークピース11等を模式的に示す平面図である。なお、以下の説明で用いられるX軸方向(加工送り方向)、Y軸方向(割り出し送り方向)、及びZ軸方向(高さ方向)は、互いに垂直である。 Embodiments of the present invention will be described with reference to the accompanying drawings. FIG. 1 is a perspective view schematically showing a cutting device (processing device) 2 according to the present embodiment, and FIG. 2 is a plan view schematically showing a workpiece 11 and the like. The X-axis direction (machining feed direction), Y-axis direction (indexing feed direction), and Z-axis direction (height direction) used in the following description are perpendicular to each other.

本実施形態の切削装置2は、各構成要素を支持するフレーム(不図示)を備えている。このフレームは、図1に示すように、カバー4によって覆われている。フレーム及びカバー4の内側には、板状のワークピース11を切削加工するための空間が形成されており、この空間内には、切削ユニット(加工ユニット)6が収容されている。 The cutting device 2 of the present embodiment includes a frame (not shown) that supports each component. This frame is covered by a cover 4, as shown in FIG. A space for cutting the plate-shaped workpiece 11 is formed inside the frame and the cover 4, and the cutting unit (machining unit) 6 is housed in this space.

ワークピース11は、代表的には、シリコン等の半導体を用いて形成される円盤状のウェーハである。図2に示すように、ワークピース11の表面11aは、例えば、格子状に配列された分割予定ライン(ストリート)13で複数の領域に区画されており、各領域には、IC(Integrated Circuit)等のデバイス15が形成されている。 The workpiece 11 is typically a disk-shaped wafer formed by using a semiconductor such as silicon. As shown in FIG. 2, the surface 11a of the workpiece 11 is divided into a plurality of regions by, for example, grid-arranged division schedule lines (streets) 13, and each region is divided into ICs (Integrated Circuits). And other devices 15 are formed.

ワークピース11を切削装置2で切削加工する際には、このワークピース11の裏面側に、ワークピース11よりも大きな径のテープ(ダイシングテープ)17が貼付される。また、テープ17の外周部分に、環状のフレーム19が接着される。すなわち、ワークピース11は、テープ17を介してフレーム19に支持された状態で切削装置2へと搬入される。 When the work piece 11 is cut by the cutting device 2, a tape (dicing tape) 17 having a diameter larger than that of the work piece 11 is attached to the back surface side of the work piece 11. Further, the annular frame 19 is adhered to the outer peripheral portion of the tape 17. That is, the workpiece 11 is carried into the cutting device 2 in a state of being supported by the frame 19 via the tape 17.

更に、本実施形態では、情報の単位となるデータセルが縦横に配列されたマトリックス式の2次元コード21が、テープ17のワークピース11とフレーム19との間に位置する部分に貼付される。すなわち、ワークピース11には、2次元コード21が付随している。この2次元コード21には、切削加工の条件や品種といったワークピース11に関する様々な情報が含まれている。 Further, in the present embodiment, a matrix-type two-dimensional code 21 in which data cells serving as a unit of information are arranged vertically and horizontally is attached to a portion of the tape 17 located between the workpiece 11 and the frame 19. That is, the workpiece 11 is accompanied by the two-dimensional code 21. The two-dimensional code 21 contains various information regarding the workpiece 11 such as cutting conditions and product types.

なお、ワークピース11の材質、形状、構造、大きさ等に制限はない。例えば、他の半導体、セラミックス、樹脂、金属等を用いて形成される基板をワークピース11として用いることもできる。同様に、デバイスの種類、数量、形状、構造、大きさ、配置等にも制限はない。ワークピース11には、デバイスが形成されていないこともある。 There are no restrictions on the material, shape, structure, size, etc. of the work piece 11. For example, a substrate formed of other semiconductors, ceramics, resins, metals, etc. can be used as the workpiece 11. Similarly, there are no restrictions on the type, quantity, shape, structure, size, arrangement, etc. of the device. A device may not be formed on the workpiece 11.

切削ユニット6は、Y軸方向に対して概ね平行な回転軸となるスピンドル(不図示)を備えている。スピンドルの一端側には、例えば、ダイヤモンド等の砥粒を樹脂や金属等の結合剤で固定することによって形成される円環状の切削ブレード8が装着される。また、スピンドルの他端側には、モータ等の回転駆動源(不図示)が連結されている。 The cutting unit 6 includes a spindle (not shown) having a rotation axis that is substantially parallel to the Y-axis direction. An annular cutting blade 8 formed by fixing abrasive grains such as diamond with a binder such as resin or metal is mounted on one end side of the spindle. A rotary drive source (not shown) such as a motor is connected to the other end side of the spindle.

切削ブレード8の傍には、ワークピース11や切削ブレード8に対して純水等の切削液を供給できるノズル10が配置されている。切削ユニット6は、切削ユニット移動機構(不図示)に支持されており、この切削ユニット移動機構によって、Y軸方向及びZ軸方向に移動する。 A nozzle 10 capable of supplying a cutting fluid such as pure water to the workpiece 11 and the cutting blade 8 is arranged near the cutting blade 8. The cutting unit 6 is supported by a cutting unit moving mechanism (not shown), and is moved in the Y-axis direction and the Z-axis direction by the cutting unit moving mechanism.

切削ユニット6の下方には、ワークピース11を保持できるチャックテーブル12が配置されている。チャックテーブル12は、モータ等の回転駆動源(不図示)に連結されており、Z軸方向に対して概ね平行な回転軸の周りに回転する。また、チャックテーブル12は、チャックテーブル移動機構(不図示)に支持されており、このチャックテーブル移動機構によって、X軸方向に移動する。 A chuck table 12 capable of holding the workpiece 11 is arranged below the cutting unit 6. The chuck table 12 is connected to a rotation drive source (not shown) such as a motor, and rotates around a rotation axis substantially parallel to the Z-axis direction. Further, the chuck table 12 is supported by a chuck table moving mechanism (not shown), and the chuck table moving mechanism moves the chuck table 12 in the X-axis direction.

チャックテーブル12の上面の一部は、例えば、多孔質材で構成されており、ワークピース11を保持する保持面12aになる。保持面12aは、X軸方向及びY軸方向に対して概ね平行に形成されており、チャックテーブル12の内部に設けられた吸引路(不図示)等を介して吸引源(不図示)に接続されている。また、チャックテーブル12の周囲には、ワークピース11を支持する環状のフレーム19を固定できる4個のクランプ14が設けられている。 A part of the upper surface of the chuck table 12 is made of, for example, a porous material, and becomes a holding surface 12a for holding the workpiece 11. The holding surface 12a is formed substantially parallel to the X-axis direction and the Y-axis direction, and is connected to a suction source (not shown) via a suction path (not shown) provided inside the chuck table 12. Has been done. Further, around the chuck table 12, four clamps 14 capable of fixing the annular frame 19 that supports the work piece 11 are provided.

切削ユニット6の側方には、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサやCCD(Charge Coupled Device)イメージセンサ等の撮像素子と、結像用のレンズと、を含む撮像ユニット16が配置されている。撮像ユニット16は、チャックテーブル12の保持面12a側を撮像して画像を生成できるように構成されている。 An image pickup unit 16 including an image pickup element such as a CMOS (Complementary Metal Oxide Semiconductor) image sensor or a CCD (Charge Coupled Device) image sensor, and a lens for imaging is arranged on the side of the cutting unit 6. .. The image pickup unit 16 is configured to be able to generate an image by taking an image of the holding surface 12a side of the chuck table 12.

本実施形態の切削装置2は、この撮像ユニット16で撮像できる範囲を超える大きさの2次元コード21が使用される場合にも、ワークピース11に関する情報を適切に取得できる。なお、撮像ユニット16は、例えば、各画素が8ビットで表現されるグレースケール画像を生成するが、カラー画像や白黒画像を生成できるように構成されても良い。 The cutting device 2 of the present embodiment can appropriately acquire information about the workpiece 11 even when a two-dimensional code 21 having a size exceeding the range that can be imaged by the imaging unit 16 is used. The image pickup unit 16 generates, for example, a grayscale image in which each pixel is represented by 8 bits, but may be configured to be able to generate a color image or a black-and-white image.

フレーム及びカバー4の外部には、カセット支持台18が設けられている。カセット支持台18の上面には、複数のワークピース11を収容できるカセット(不図示)が載せられる。カセット支持台18の高さ(Z軸方向の位置)は、カセットからワークピース11を搬出でき、また、ワークピース11をカセットへと搬入できるように、昇降機構(不図示)によって制御される。 A cassette support 18 is provided on the outside of the frame and the cover 4. A cassette (not shown) capable of accommodating a plurality of workpieces 11 is placed on the upper surface of the cassette support base 18. The height (position in the Z-axis direction) of the cassette support 18 is controlled by an elevating mechanism (not shown) so that the work piece 11 can be carried out from the cassette and the work piece 11 can be carried into the cassette.

カバー4の前面4aには、ユーザインタフェースとなるタッチパネル20が設けられている。また、カバー4の上面4bには、表示灯22が配置されている。タッチパネル20や表示灯22は、切削ユニット6、切削ユニット移動機構、チャックテーブル移動機構、回転駆動源、撮像ユニット16等とともに、制御ユニット24に接続されている。 A touch panel 20 serving as a user interface is provided on the front surface 4a of the cover 4. An indicator light 22 is arranged on the upper surface 4b of the cover 4. The touch panel 20 and the indicator light 22 are connected to the control unit 24 together with the cutting unit 6, the cutting unit moving mechanism, the chuck table moving mechanism, the rotation drive source, the imaging unit 16, and the like.

制御ユニット24は、ワークピース11の適切な切削加工が実現されるように、切削ユニット6、切削ユニット移動機構、チャックテーブル移動機構、回転駆動源、撮像ユニット16、タッチパネル20、表示灯22等の構成要素を制御する。制御ユニット24は、代表的には、CPU(Central Processing Unit)等の処理装置や、フラッシュメモリ等の記憶装置を含むコンピュータによって構成される。記憶装置に記憶されたソフトウェアに従い処理装置等を動作させることによって、制御ユニット24の機能が実現される。 The control unit 24 includes a cutting unit 6, a cutting unit moving mechanism, a chuck table moving mechanism, a rotary drive source, an imaging unit 16, a touch panel 20, an indicator light 22, and the like so that appropriate cutting of the workpiece 11 can be realized. Control the components. The control unit 24 is typically composed of a processing device such as a CPU (Central Processing Unit) and a computer including a storage device such as a flash memory. The function of the control unit 24 is realized by operating the processing device or the like according to the software stored in the storage device.

図3は、制御ユニット24等を模式的に示す機能ブロック図である。制御ユニット24は、例えば、撮像ユニット16等の動作を指示する撮像指示部24aを含んでいる。撮像指示部24aは、撮像を開始する領域(以下、開始領域)の情報が記憶された開始領域記憶部24bに対してアクセスできるように構成されている。 FIG. 3 is a functional block diagram schematically showing the control unit 24 and the like. The control unit 24 includes, for example, an imaging instruction unit 24a that instructs the operation of the imaging unit 16 and the like. The image pickup instruction unit 24a is configured to be able to access the start area storage unit 24b in which the information of the area for starting imaging (hereinafter referred to as the start area) is stored.

例えば、チャックテーブル12にワークピース11等が搬入されると、制御ユニット24の撮像指示部24aは、このワークピース11に関する情報を取得するために、ワークピース11に付随する2次元コード21を撮像ユニット16に撮像させる。本実施形態では、撮像ユニット16の撮像できる範囲を超える大きさの2次元コード21が使用されている。 For example, when the work piece 11 or the like is carried into the chuck table 12, the image pickup instruction unit 24a of the control unit 24 takes an image of the two-dimensional code 21 attached to the work piece 11 in order to acquire information about the work piece 11. Let the unit 16 take an image. In this embodiment, a two-dimensional code 21 having a size exceeding the range that can be imaged by the image pickup unit 16 is used.

そこで、制御ユニット24の撮像指示部24aは、チャックテーブル12と撮像ユニット16とを相対的に移動又は回転させて、2次元コード21を含む可能性の高い複数の領域を順に撮像ユニット16に撮像させる。図4は、2次元コード21を含む可能性の高い領域を模式的に示す平面図である。 Therefore, the imaging instruction unit 24a of the control unit 24 relatively moves or rotates the chuck table 12 and the imaging unit 16 to sequentially image a plurality of regions likely to include the two-dimensional code 21 on the imaging unit 16. Let me. FIG. 4 is a plan view schematically showing a region that is likely to include the two-dimensional code 21.

なお、図4では、2次元コード21を含む可能性の高い領域の全体が示されている。この領域は、例えば、テープ17に2次元コード21を貼付する際に想定される位置のずれ(誤差)等を考慮して決定される。また、縦の線と横の線とで区画される複数の領域は、それぞれ、撮像ユニット16によって一度に撮像される領域を表している。 Note that FIG. 4 shows the entire region that is likely to include the two-dimensional code 21. This region is determined in consideration of, for example, a positional deviation (error) expected when the two-dimensional code 21 is attached to the tape 17. Further, each of the plurality of regions divided by the vertical line and the horizontal line represents a region imaged at one time by the image pickup unit 16.

撮像指示部24aは、まず、開始領域記憶部24bに記憶されている開始領域に関する情報を読み出して、この開始領域を撮像ユニット16に撮像させる。本実施形態では、例えば、図4の中央の領域(D,4)が開始領域に設定されている。そのため、撮像ユニット16は、まず、領域(D,4)を撮像して画像を生成する。図3に示すように、撮像ユニット16は、制御ユニット24が備える画像記憶部24cに接続されており、撮像ユニット16で生成された画像の情報は、画像記憶部24cに記憶される。 First, the image pickup instruction unit 24a reads out the information about the start area stored in the start area storage unit 24b, and causes the image pickup unit 16 to take an image of this start area. In the present embodiment, for example, the central region (D, 4) of FIG. 4 is set as the start region. Therefore, the image pickup unit 16 first takes an image of the area (D, 4) to generate an image. As shown in FIG. 3, the image pickup unit 16 is connected to the image storage unit 24c included in the control unit 24, and the image information generated by the image pickup unit 16 is stored in the image storage unit 24c.

領域(D,4)の画像が生成されると、制御ユニット24は、この画像に2次元コード21が写っているか否かを判定する。図3に示すように、制御ユニット24は、画像記憶部24cに対してアクセスできるように構成された分散算出部24dを含んでいる。分散算出部24dは、画像記憶部24cに記憶された画像の情報を読み出して、画像内の各画素の階調を表す複数の画素値から、画素値の分散を算出する。 When the image of the area (D, 4) is generated, the control unit 24 determines whether or not the two-dimensional code 21 is reflected in this image. As shown in FIG. 3, the control unit 24 includes a dispersion calculation unit 24d configured to be accessible to the image storage unit 24c. The dispersion calculation unit 24d reads out the image information stored in the image storage unit 24c, and calculates the dispersion of the pixel values from a plurality of pixel values representing the gradation of each pixel in the image.

本実施形態では、撮像ユニット16によってグレースケール画像が生成されるので、画像内の各画素の画素値は、0〜255の値を取ることになる。分散算出部24dは、例えば、下記の式(1)と、画像内の全画素の画素値とを用いて、対象の画像の画素値の分散を算出する。なお、式(1)において、nは対象となる画像内の画素の数を表し、xはi番目の画素の画素値(0〜255)を表し、“xバー”は画像内の全ての画素(n個)の画素値の算術平均を表す。 In the present embodiment, since the grayscale image is generated by the image pickup unit 16, the pixel value of each pixel in the image takes a value of 0 to 255. The variance calculation unit 24d calculates the variance of the pixel values of the target image by using, for example, the following equation (1) and the pixel values of all the pixels in the image. In the equation (1), n represents the number of pixels in the target image, x i represents the pixel value (0 to 255) of the i-th pixel, and “x bar” represents all the pixels in the image. Represents the arithmetic mean of the pixel values of pixels (n).

Figure 2021044481
Figure 2021044481

上述の式(1)に基づいて算出される画素値の分散は、画像を構成する画素の階調にばらつきがあるほど大きくなる。具体的には、例えば、画像にワークピース11やテープ17が写っている場合の画素値の分散は、画像に2次元コード21が写っている場合の画素値の分散に比べて小さい。この画素値の分散を用いることで、画像に2次元コード21が写っているか否かを判定できる。 The variance of the pixel values calculated based on the above equation (1) becomes larger as the gradation of the pixels constituting the image varies. Specifically, for example, the dispersion of the pixel values when the workpiece 11 or the tape 17 is shown in the image is smaller than the dispersion of the pixel values when the two-dimensional code 21 is shown in the image. By using this dispersion of pixel values, it is possible to determine whether or not the two-dimensional code 21 appears in the image.

図3に示すように、分散算出部24dは、画像に2次元コード21が写っているか否かを判定できる判定部24eに接続されている。分散算出部24dによって算出された画素値の分散は、この判定部24eに送られ、画像に2次元コード21が写っているか否かの判定に用いられる。 As shown in FIG. 3, the variance calculation unit 24d is connected to a determination unit 24e that can determine whether or not the two-dimensional code 21 is shown in the image. The variance of the pixel values calculated by the variance calculation unit 24d is sent to the determination unit 24e and used to determine whether or not the two-dimensional code 21 is reflected in the image.

また、判定部24eは、判定の際の基準となる画素値の分散(基準値)に関する情報が記憶された基準記憶部24fに対してアクセスできるように構成されている。判定の際の基準となる画素値の分散は、例えば、画像に2次元コード21が写っている場合の画素値の分散の下限値や、画像に2次元コード21が写っている場合の画素値の分散の上限値等である。 Further, the determination unit 24e is configured to be able to access the reference storage unit 24f in which information regarding the dispersion (reference value) of the pixel value, which is the reference at the time of determination, is stored. The dispersion of the pixel values, which is the reference for the determination, is, for example, the lower limit of the dispersion of the pixel values when the two-dimensional code 21 is shown in the image, or the pixel values when the two-dimensional code 21 is shown in the image. This is the upper limit of the variance of.

判定部24eは、分散算出部24dで算出された画素値の分散と、基準記憶部24fに記憶される画素値の分散とを比較して、画像に2次元コード21が写っているか否かを判定する。例えば、分散算出部24dで算出される画素値の分散が、基準記憶部24fに記憶される画素値の分散の下限値以上、かつ、基準記憶部24fに記憶される画素値の分散の上限値以下の場合には、判定部24eは、画像に2次元コード21が写っていると判定する。 The determination unit 24e compares the dispersion of the pixel values calculated by the dispersion calculation unit 24d with the dispersion of the pixel values stored in the reference storage unit 24f, and determines whether or not the two-dimensional code 21 appears in the image. judge. For example, the dispersion of the pixel values calculated by the dispersion calculation unit 24d is equal to or greater than the lower limit of the dispersion of the pixel values stored in the reference storage unit 24f, and the upper limit of the dispersion of the pixel values stored in the reference storage unit 24f. In the following cases, the determination unit 24e determines that the two-dimensional code 21 appears in the image.

また、分散算出部24dで算出された画素値の分散が、基準記憶部24fに記憶される画素値の分散の下限値未満の場合、又は、基準記憶部24fに記憶される画素値の分散の上限値より大きい場合には、判定部24eは、画像に2次元コード21が写っていないと判定する。判定部24eによる判定の結果は、次の撮像領域を決定する撮像領域決定部24gへと送られる。 Further, when the dispersion of the pixel values calculated by the dispersion calculation unit 24d is less than the lower limit of the dispersion of the pixel values stored in the reference storage unit 24f, or the dispersion of the pixel values stored in the reference storage unit 24f. If it is larger than the upper limit value, the determination unit 24e determines that the two-dimensional code 21 is not shown in the image. The result of the determination by the determination unit 24e is sent to the imaging region determination unit 24g that determines the next imaging region.

画像に2次元コード21が写っていないと判定された場合、撮像領域決定部24gは、直前に撮像された領域から任意の距離にある別の領域を次に撮像する領域(以下、次の撮像領域)に決定する。例えば、撮像領域決定部24gは、撮像ユニット16が一度に撮像できる範囲を距離の単位として、領域(D,4)の端部から任意の距離にある領域を次の撮像領域に決定する。 When it is determined that the two-dimensional code 21 is not shown in the image, the imaging region determining unit 24g next captures another region at an arbitrary distance from the region imaged immediately before (hereinafter, the next imaging). Area). For example, the imaging region determination unit 24g determines a region at an arbitrary distance from the end of the region (D, 4) as the next imaging region, with the range that the imaging unit 16 can image at one time as a unit of distance.

なお、撮像領域の決定に用いられる距離に特段の制限はないが、この距離としては、2次元コード21を適切に見つけることができるものの中で最大のものを使用することが望ましい。これにより、2次元コード21を見つけるために要する時間を最大限に短縮できる。本実施形態では、この距離として、1単位の距離が使用される。 The distance used to determine the imaging region is not particularly limited, but it is desirable to use the largest distance among those that can appropriately find the two-dimensional code 21. As a result, the time required to find the two-dimensional code 21 can be minimized. In this embodiment, one unit of distance is used as this distance.

つまり、本実施形態では、撮像ユニット16で撮像できる範囲を距離の単位として、領域(D,4)の端から1単位の距離にある領域(F,4)が次の撮像領域に決定される。撮像領域決定部24gによって次の撮像領域が決定されると、同様の手順でこの撮像領域が撮像され、生成された画像に2次元コード21が写っているか否かが判定される。 That is, in the present embodiment, the range (F, 4) at a distance of 1 unit from the end of the region (D, 4) is determined as the next imaging region, with the range that can be imaged by the imaging unit 16 as the unit of distance. .. When the next imaging region is determined by the imaging region determining unit 24g, this imaging region is imaged in the same procedure, and it is determined whether or not the two-dimensional code 21 is included in the generated image.

領域(F,4)を撮像することによって生成される画像にも2次元コード21が写っていないと判定された場合、撮像領域決定部24gは、領域(F,4)の端から1単位の距離にある領域(F,6)を次の撮像領域に決定する。このような手順は、2次元コード21が写っていると判定される画像が得られるまで続けられる。 When it is determined that the two-dimensional code 21 does not appear in the image generated by imaging the region (F, 4), the imaging region determination unit 24g is one unit from the end of the region (F, 4). The region (F, 6) at a distance is determined as the next imaging region. Such a procedure is continued until an image determined to contain the two-dimensional code 21 is obtained.

具体的には、例えば、領域(F,6)、領域(D,6)、領域(B,6)、領域(B,4)、領域(B,2)、領域(D,2)、領域(F,2)の順で、撮像と判定とが繰り返される。このように、本実施形態では、中央の開始領域から外側に向かう渦巻き状の軌跡に沿って次の撮像領域が決定される。そのため、2次元コード21を効率良く見つけ出すことができる。 Specifically, for example, region (F, 6), region (D, 6), region (B, 6), region (B, 4), region (B, 2), region (D, 2), region. Imaging and determination are repeated in the order of (F, 2). As described above, in the present embodiment, the next imaging region is determined along the spiral locus from the central start region to the outside. Therefore, the two-dimensional code 21 can be efficiently found.

画像に2次元コード21が写っていると判定された場合、撮像領域決定部24gは、直前に撮像された領域の隣の領域を次の撮像領域に決定する。図4に示すように、領域(D,4)を撮像すると、生成される画像には、2次元コード21の一部が写る。従って、撮像領域決定部24gは、領域(D,4)に隣接する領域(E,4)を次の撮像領域に決定する。 When it is determined that the two-dimensional code 21 appears in the image, the imaging region determination unit 24g determines the region adjacent to the region imaged immediately before as the next imaging region. As shown in FIG. 4, when the region (D, 4) is imaged, a part of the two-dimensional code 21 appears in the generated image. Therefore, the imaging region determination unit 24g determines the region (E, 4) adjacent to the region (D, 4) as the next imaging region.

撮像領域決定部24gによって次の撮像領域が決定されると、この撮像領域が同様の手順で撮像される。そして、撮像領域決定部24gは、更に隣の領域を次の撮像領域に決定する。このような手順は、例えば、2次元コード21の大きさ等の情報に基づいて、この2次元コード21の全体が撮像されるまで続けられる。具体的には、例えば、領域(E,5)、領域(D,5)、領域(C,5)、領域(C,4)、領域(C,3)、領域(D,3)、領域(E,3)の順で、撮像が繰り返される。 When the next imaging region is determined by the imaging region determining unit 24g, this imaging region is imaged in the same procedure. Then, the imaging region determination unit 24g further determines the adjacent region as the next imaging region. Such a procedure is continued until the entire two-dimensional code 21 is imaged, for example, based on information such as the size of the two-dimensional code 21. Specifically, for example, region (E, 5), region (D, 5), region (C, 5), region (C, 4), region (C, 3), region (D, 3), region. Imaging is repeated in the order of (E, 3).

なお、各領域を撮像した後には、生成された画像に2次元コード21が写っているか否かを判定する。そして、対象の撮像領域を撮像して得られる画像に2次元コード21が写っていないと判定された場合には、1つ前の撮像領域から見て、この撮像領域を含む方向に存在する他の領域を、次の撮像領域から除外することが望ましい。 After imaging each region, it is determined whether or not the two-dimensional code 21 is reflected in the generated image. Then, when it is determined that the two-dimensional code 21 does not appear in the image obtained by imaging the target imaging region, it exists in the direction including this imaging region when viewed from the previous imaging region. It is desirable to exclude this region from the next imaging region.

例えば、領域(E,4)を撮像して得られる画像に2次元コード21が写っていないと判定された場合には、1つ前の領域(D,4)から見て、この領域(E,4)を含む方向に存在する領域(E,3)や領域(E,5)を次の撮像領域から除外すると良い。このように、画像に2次元コード21が写っているか否かの判定の結果を用いて次の撮像領域を決定することで、2次元コード21の全体をより短時間に撮像できるようになる。 For example, when it is determined that the two-dimensional code 21 does not appear in the image obtained by imaging the region (E, 4), this region (E, 4) is viewed from the previous region (D, 4). It is preferable to exclude the region (E, 3) and the region (E, 5) existing in the direction including, 4) from the next imaging region. In this way, by determining the next imaging region using the result of determining whether or not the two-dimensional code 21 is captured in the image, the entire two-dimensional code 21 can be imaged in a shorter time.

図5は、2次元コード21が写っていると判定された複数の画像を模式的に示す図である。画像23aは、領域(C,3)を撮像することによって生成され、画像23bは、領域(D,3)を撮像することによって生成され、画像23cは、領域(E,3)を撮像することによって生成される。 FIG. 5 is a diagram schematically showing a plurality of images determined to show the two-dimensional code 21. The image 23a is generated by imaging the region (C, 3), the image 23b is generated by imaging the region (D, 3), and the image 23c is the imaging of the region (E, 3). Generated by.

また、画像23dは、領域(C,4)を撮像することによって生成され、画像23eは、領域(D,4)を撮像することによって生成され、画像23fは、領域(E,4)を撮像することによって生成される。そして、画像23gは、領域(C,5)を撮像することによって生成され、画像23hは、領域(D,5)を撮像することによって生成され、画像23iは、領域(E,5)を撮像することによって生成される。 Further, the image 23d is generated by imaging the region (C, 4), the image 23e is generated by imaging the region (D, 4), and the image 23f images the region (E, 4). It is generated by doing. Then, the image 23g is generated by imaging the region (C, 5), the image 23h is generated by imaging the region (D, 5), and the image 23i images the region (E, 5). It is generated by doing.

図3に示すように、制御ユニット24は、2次元コード21が写っていると判定された複数の画像が記憶される画像記憶部24cに対してアクセスできるように構成された画像結合部24hを含む。この画像結合部24hは、複数の画像(つまり、画像23a、画像23b、画像23c、画像23d、画像23e、画像23f、画像23g、画像23h、画像23i)をつなぎ合わせて、1つの画像を生成する。 As shown in FIG. 3, the control unit 24 has an image combining unit 24h configured to be accessible to an image storage unit 24c in which a plurality of images determined to have the two-dimensional code 21 are stored. Including. The image combining unit 24h connects a plurality of images (that is, image 23a, image 23b, image 23c, image 23d, image 23e, image 23f, image 23g, image 23h, image 23i) to generate one image. To do.

図6は、画像結合部24hによって生成された画像25を模式的に示す図である。この図6では、結合前の複数の画像の境界に相当する部分を破線で示している。例えば、隣接する2つの領域で撮像された結合前の2つの画像は、僅かに重複する部分を有するように形成されており、この重複する部分を重ね合わせるようにして互いに結合される。 FIG. 6 is a diagram schematically showing an image 25 generated by the image coupling unit 24h. In FIG. 6, the portion corresponding to the boundary of the plurality of images before the combination is shown by a broken line. For example, the two pre-combined images captured in two adjacent regions are formed to have slightly overlapping portions and are coupled to each other so as to overlap the overlapping portions.

図3に示すように、画像結合部24hには、2次元コード21の写った画像25から2次元コード21を抽出できるように構成される2次元コード抽出部24iが接続されている。画像結合部24hで生成された画像25は、画像結合部24hから2次元コード抽出部24iへと送られる。 As shown in FIG. 3, a two-dimensional code extraction unit 24i configured to be able to extract the two-dimensional code 21 from the image 25 in which the two-dimensional code 21 is captured is connected to the image coupling unit 24h. The image 25 generated by the image combining unit 24h is sent from the image combining unit 24h to the two-dimensional code extraction unit 24i.

図3に示すように、2次元コード抽出部24iは、抽出された2次元コード21に含まれている情報を記憶する2次元コード情報記憶部24jに対してアクセスできるように構成されている。2次元コード抽出部24iで抽出された2次元コード21の情報は、2次元コード情報記憶部24jに記憶され、例えば、ワークピース11を切削加工する際に用いられる。 As shown in FIG. 3, the two-dimensional code extraction unit 24i is configured to be able to access the two-dimensional code information storage unit 24j that stores the information contained in the extracted two-dimensional code 21. The information of the two-dimensional code 21 extracted by the two-dimensional code extraction unit 24i is stored in the two-dimensional code information storage unit 24j and is used, for example, when cutting the workpiece 11.

以上のように、本実施形態の切削装置(加工装置)2は、撮像ユニット16によって生成される複数の画像(画像23a、画像23b、画像23c、画像23d、画像23e、画像23f、画像23g、画像23h、画像23i)からワークピース11に付随する2次元コード21を抽出する2次元コード抽出部24iと、2次元コード抽出部24iで抽出された2次元コード21の情報を記憶する2次元コード情報記憶部24jと、を含む制御ユニット24を備えている。 As described above, the cutting device (processing device) 2 of the present embodiment has a plurality of images (image 23a, image 23b, image 23c, image 23d, image 23e, image 23f, image 23g) generated by the imaging unit 16. The two-dimensional code extracting unit 24i that extracts the two-dimensional code 21 attached to the workpiece 11 from the image 23h and the image 23i) and the two-dimensional code that stores the information of the two-dimensional code 21 extracted by the two-dimensional code extraction unit 24i. It includes an information storage unit 24j and a control unit 24 including the information storage unit 24j.

そして、制御ユニット24の2次元コード抽出部24iは、撮像ユニット16によって生成される複数の画像をつなぎ合わせた1つの画像25から2次元コード21を抽出する。そのため、本実施形態にかかる切削装置2によれば、撮像ユニット16の撮像できる範囲を超える大きさの2次元コード21を読み取って、ワークピース11に関する情報を適切に取得できる。 Then, the two-dimensional code extraction unit 24i of the control unit 24 extracts the two-dimensional code 21 from one image 25 in which a plurality of images generated by the imaging unit 16 are joined. Therefore, according to the cutting device 2 according to the present embodiment, the two-dimensional code 21 having a size exceeding the image pickup range of the image pickup unit 16 can be read to appropriately acquire information about the workpiece 11.

なお、本発明は、上述した実施形態の記載に制限されず種々変更して実施可能である。例えば、上述した実施形態では、板状のワークピース11を切削加工する際に用いられる切削装置2を例に挙げて説明したが、本発明の加工装置は、ワークピース11をレーザービームによって加工するレーザー加工装置等でも良い。 The present invention is not limited to the description of the above-described embodiment, and can be implemented with various modifications. For example, in the above-described embodiment, the cutting device 2 used for cutting the plate-shaped workpiece 11 has been described as an example, but the machining device of the present invention processes the workpiece 11 with a laser beam. A laser processing device or the like may be used.

また、上述した実施形態では、テープ17に貼付された2次元コード21を例に挙げて説明したが、この2次元コード21は、少なくともワークピース11に付随していれば良い。例えば、ワークピース11の表面11aの一部に2次元コード21が付されている場合等にも、本発明の加工装置は有用である。なお、この場合には、テープ17やフレーム19等を必ずしも使用しなくて良い。 Further, in the above-described embodiment, the two-dimensional code 21 attached to the tape 17 has been described as an example, but the two-dimensional code 21 may be attached to at least the workpiece 11. For example, the processing apparatus of the present invention is also useful when a two-dimensional code 21 is attached to a part of the surface 11a of the workpiece 11. In this case, it is not always necessary to use the tape 17, the frame 19, or the like.

また、上述した実施形態では、画素値の分散として、いわゆる標本分散を採用しているが、画素値のばらつきを表す他の指標を採用することもできる。例えば、画素値の分散として、不偏分散を採用しても良い。 Further, in the above-described embodiment, the so-called sample variance is adopted as the dispersion of the pixel values, but other indexes representing the variations in the pixel values can also be adopted. For example, unbiased dispersion may be adopted as the dispersion of pixel values.

その他、上述した実施形態にかかる構造、方法等は、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施できる。 In addition, the structure, method, and the like according to the above-described embodiment can be appropriately modified and implemented as long as they do not deviate from the scope of the object of the present invention.

2 :切削装置(加工装置)
4 :カバー
4a :前面
4b :上面
6 :切削ユニット(加工ユニット)
8 :切削ブレード
10 :ノズル
12 :チャックテーブル
12a :保持面
14 :クランプ
16 :撮像ユニット
18 :カセット支持台
20 :タッチパネル
22 :表示灯
24 :制御ユニット
24a :撮像指示部
24b :開始領域記憶部
24c :画像記憶部
24d :分散算出部
24e :判定部
24f :基準記憶部
24g :撮像領域決定部
24h :画像結合部
24i :2次元コード抽出部
24j :2次元コード情報記憶部
11 :ワークピース
11a :表面
13 :分割予定ライン(ストリート)
15 :デバイス
17 :テープ(ダイシングテープ)
19 :フレーム
21 :2次元コード
23a :画像
23b :画像
23c :画像
23d :画像
23e :画像
23f :画像
23g :画像
23h :画像
23i :画像
25 :画像
2: Cutting equipment (processing equipment)
4: Cover 4a: Front surface 4b: Top surface 6: Cutting unit (machining unit)
8: Cutting blade 10: Nozzle 12: Chuck table 12a: Holding surface 14: Clamp 16: Imaging unit 18: Cassette support 20: Touch panel 22: Indicator light 24: Control unit 24a: Imaging indicator 24b: Start area storage unit 24c : Image storage unit 24d: Dispersion calculation unit 24e: Judgment unit 24f: Reference storage unit 24g: Imaging area determination unit 24h: Image coupling unit 24i: Two-dimensional code extraction unit 24j: Two-dimensional code information storage unit 11: Workpiece 11a: Surface 13: Scheduled division line (street)
15: Device 17: Tape (dicing tape)
19: Frame 21: Two-dimensional code 23a: Image 23b: Image 23c: Image 23d: Image 23e: Image 23f: Image 23g: Image 23h: Image 23i: Image 25: Image

Claims (2)

ワークピースを保持する保持面を有するチャックテーブルと、
該チャックテーブルによって保持された該ワークピースを加工する加工ユニットと、
該チャックテーブルの該保持面側を撮像して画像を生成する撮像ユニットと、
該撮像ユニットによって生成される複数の画像から該ワークピースに付随する2次元コードを抽出する2次元コード抽出部と、該2次元コード抽出部で抽出された該2次元コードの情報を記憶する2次元コード情報記憶部と、を含む制御ユニットと、を備え、
該2次元コード抽出部は、該撮像ユニットによって生成される複数の画像をつなぎ合わせた1つの画像から該2次元コードを抽出することを特徴とする加工装置。
A chuck table with a holding surface for holding the workpiece,
A processing unit for processing the workpiece held by the chuck table, and
An imaging unit that images the holding surface side of the chuck table to generate an image, and
A two-dimensional code extraction unit that extracts a two-dimensional code associated with the workpiece from a plurality of images generated by the imaging unit, and a two-dimensional code information extracted by the two-dimensional code extraction unit are stored. A control unit including a two-dimensional code information storage unit is provided.
The two-dimensional code extraction unit is a processing device characterized by extracting the two-dimensional code from one image obtained by joining a plurality of images generated by the imaging unit.
該制御ユニットは、該撮像ユニットによって生成される画像内の各画素の階調を表す複数の画素値から画素値の分散を算出する分散算出部と、該撮像ユニットによって生成される画像に該2次元コードが写っているか否かを判定する際の基準となる画素値の分散を記憶する基準記憶部と、該分散算出部で算出される画素値の分散と該基準記憶部に記憶される画素値の分散とを比較して該撮像ユニットによって生成された画像に該2次元コードが写っているか否かを判定する判定部と、を更に含み、
該2次元コード抽出部は、該判定部によって該2次元コードが写っていると判定された複数の画像をつなぎ合わせた1つの画像から該2次元コードを抽出することを特徴とする請求項1に記載の加工装置。
The control unit includes a dispersion calculation unit that calculates the dispersion of pixel values from a plurality of pixel values representing the gradation of each pixel in the image generated by the image pickup unit, and the image generated by the image pickup unit. A reference storage unit that stores the dispersion of pixel values that serves as a reference when determining whether or not a dimension code is captured, the dispersion of pixel values calculated by the dispersion calculation unit, and the pixels stored in the reference storage unit. Further including a determination unit for determining whether or not the two-dimensional code is reflected in the image generated by the imaging unit by comparing with the dispersion of values.
The two-dimensional code extraction unit is characterized in that the two-dimensional code extraction unit extracts the two-dimensional code from one image obtained by joining a plurality of images determined by the determination unit to show the two-dimensional code. The processing equipment described in.
JP2019167033A 2019-09-13 2019-09-13 processing equipment Active JP7455459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167033A JP7455459B2 (en) 2019-09-13 2019-09-13 processing equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167033A JP7455459B2 (en) 2019-09-13 2019-09-13 processing equipment

Publications (2)

Publication Number Publication Date
JP2021044481A true JP2021044481A (en) 2021-03-18
JP7455459B2 JP7455459B2 (en) 2024-03-26

Family

ID=74863241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167033A Active JP7455459B2 (en) 2019-09-13 2019-09-13 processing equipment

Country Status (1)

Country Link
JP (1) JP7455459B2 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH097977A (en) * 1995-06-26 1997-01-10 Disco Abrasive Syst Ltd Dicing apparatus and dicing system
WO2007046234A1 (en) * 2005-10-17 2007-04-26 Lintec Corporation Measuring device
JP2008218537A (en) * 2007-03-01 2008-09-18 Matsushita Electric Ind Co Ltd Device for mounting electronic component, and method of reading information code in the same
JP2011029412A (en) * 2009-07-24 2011-02-10 Furukawa Electric Co Ltd:The Wafer-processing tape
JP2011081832A (en) * 2010-12-13 2011-04-21 Denso Wave Inc Two-dimensional code division display method, two-dimensional code reading method and two-dimensional code reader
JP2016062260A (en) * 2014-09-17 2016-04-25 株式会社デンソーウェーブ Information code reading system and information code display apparatus
JP2017027368A (en) * 2015-07-22 2017-02-02 株式会社デンソーウェーブ Information code reader
JP2017034018A (en) * 2015-07-30 2017-02-09 株式会社ディスコ Processing device

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH097977A (en) * 1995-06-26 1997-01-10 Disco Abrasive Syst Ltd Dicing apparatus and dicing system
WO2007046234A1 (en) * 2005-10-17 2007-04-26 Lintec Corporation Measuring device
JP2008218537A (en) * 2007-03-01 2008-09-18 Matsushita Electric Ind Co Ltd Device for mounting electronic component, and method of reading information code in the same
JP2011029412A (en) * 2009-07-24 2011-02-10 Furukawa Electric Co Ltd:The Wafer-processing tape
JP2011081832A (en) * 2010-12-13 2011-04-21 Denso Wave Inc Two-dimensional code division display method, two-dimensional code reading method and two-dimensional code reader
JP2016062260A (en) * 2014-09-17 2016-04-25 株式会社デンソーウェーブ Information code reading system and information code display apparatus
JP2017027368A (en) * 2015-07-22 2017-02-02 株式会社デンソーウェーブ Information code reader
JP2017034018A (en) * 2015-07-30 2017-02-09 株式会社ディスコ Processing device

Also Published As

Publication number Publication date
JP7455459B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
JP6935168B2 (en) Processing equipment
JP6873712B2 (en) Dressing board, cutting blade dressing method and cutting equipment
JP2022010789A (en) Processing apparatus
JP2019038045A (en) Dressing board, its usage method and cutting device
JP5295720B2 (en) Semiconductor wafer processing equipment
JP6004761B2 (en) Dicing method
JP7455459B2 (en) processing equipment
JP6844985B2 (en) How to use the dressing board
JP6957102B2 (en) Reference position detection method for cutting equipment
US11699606B2 (en) Cutting apparatus
JP7408235B2 (en) processing equipment
JP2021089938A (en) Processing device
JP2023075769A (en) Processing apparatus
JP2022039182A (en) Alignment method
JP2024088288A (en) Detection device, processing device, and registration method
TW202435348A (en) Processing device and registration method
JP7271181B2 (en) diagnostic method
TW202238358A (en) Processing apparatus
JP2024111878A (en) Inspection device and inspection method
JP2022035062A (en) Processing device
JP2022083252A (en) Processing device and processing method
JP2022188409A (en) Processing device and registration method of street detection condition
JP2023018319A (en) Dressing board using method
JP2024110451A (en) Processing device
JP2021034403A (en) Processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220715

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240312

R150 Certificate of patent or registration of utility model

Ref document number: 7455459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150