JP7471207B2 - Inspection device, inspection method, and inspection program - Google Patents
Inspection device, inspection method, and inspection program Download PDFInfo
- Publication number
- JP7471207B2 JP7471207B2 JP2020197398A JP2020197398A JP7471207B2 JP 7471207 B2 JP7471207 B2 JP 7471207B2 JP 2020197398 A JP2020197398 A JP 2020197398A JP 2020197398 A JP2020197398 A JP 2020197398A JP 7471207 B2 JP7471207 B2 JP 7471207B2
- Authority
- JP
- Japan
- Prior art keywords
- inspection
- identification process
- identified
- attention
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 191
- 238000007689 inspection Methods 0.000 title claims description 112
- 238000004364 calculation method Methods 0.000 claims description 16
- 239000004065 semiconductor Substances 0.000 claims description 3
- 230000015654 memory Effects 0.000 description 12
- 238000012545 processing Methods 0.000 description 10
- 230000005856 abnormality Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Description
本発明は、複数の対象物を被写体として含む入力画像に基づいて各対象物の検査を行う検査装置、検査方法、及び、検査プログラムに関する。 The present invention relates to an inspection device, an inspection method, and an inspection program that inspects multiple objects based on an input image that contains the objects as subjects.
複数の対象物を被写体として含む入力画像に基づいて各対象物の検査を行う技術が知られている。このような技術の適用対象としては、例えば、ウエハ上に形成された複数のレーザダイオードチップの品質検査等が挙げられる。 Technology is known that inspects multiple objects based on an input image that contains the objects as subjects. One example of the application of such technology is the quality inspection of multiple laser diode chips formed on a wafer.
このような技術を開示した文献としては、例えば、特許文献1が挙げられる。特許文献1に記載の検査装置においては、まず、複数の対象物を被写体として含む入力画像から、入力画像よりも解像度の低い低解像度画像を生成される。そして、入力画像において各対象物を包含する注目領域を特定する特定処理が、低解像度画像を参照して実行され、その領域に包含された対象物を分類する分類処理が、入力画像を参照して実行される。これにより、分類処理における分類精度を犠牲にすることなく、特定処理におけるプロセッサの負荷を低減することに成功している。
For example,
しかしながら、従来の検査技術においては、対象物に異物が付着していたり、入力画像における対象物の像に光学的又は電気的ノイズが乗っていたりすると、その対象物を包含する注目領域の特定に失敗することがあった。例えば、テンプレートマッチングを用いて注目領域を特定する場合、上述した異物やノイズによりテンプレートと対象物の像との一致度が低下すると、その対象物を包含する注目領域の特定に失敗する可能性が高くなる。 However, conventional inspection techniques may fail to identify the region of interest that contains the object if a foreign object is attached to the object or if the image of the object in the input image contains optical or electrical noise. For example, when identifying the region of interest using template matching, if the degree of match between the template and the image of the object is reduced due to the above-mentioned foreign object or noise, there is a high possibility that the region of interest that contains the object will not be identified.
本発明の一態様は、上記の問題に鑑みてなされたものであり、入力画像において対象物を包含する注目領域の特定に失敗する可能性が従来よりも低い検査技術を実現することを目的とする。 One aspect of the present invention has been made in consideration of the above problems, and aims to realize an inspection technique that is less likely than conventional techniques to fail to identify a region of interest that contains an object in an input image.
本発明の態様1に係る検査装置は、複数の対象物を被写体として含む入力画像において、それぞれが単一の対象物を包含する複数の注目領域を特定する第1特定処理と、前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を実行する単一又は複数のプロセッサを備えている。
The inspection device according to
本発明の態様2に係る検査装置においては、態様1に係る検査装置の構成に加え、前記プロセッサは、テンプレートマッチングを用いて、前記第1特定処理を実行する、という構成が採用されている。
In the inspection device according to aspect 2 of the present invention, in addition to the configuration of the inspection device according to
本発明の態様3に係る検査装置においては、態様1又は2に係る検査装置の構成に加えて、前記プロセッサは、前記第2特定処理において、(1)前記第1特定処理にて特定した複数の注目領域のうち、第1の方向に並んで隣接する2つの注目領域の代表点の間隔、及び、前記第1特定処理にて特定した複数の注目領域のうち、前記第1の方向と交わる第2の方向に並んで隣接する2つの注目領域の代表点の間隔の一方又は両方を算出する第1算出処理と、(2)前記第1算出処理にて算出された間隔に基づいて、前記第1特定処理にて特定した注目領域とは異なる注目領域の代表点の座標を算出する第2算出処理と、を実行する、という構成が採用されている。
In the inspection device according to aspect 3 of the present invention, in addition to the configuration of the inspection device according to
本発明の態様4に係る検査装置においては、態様1~3の何れか一態様に係る検査装置の構成に加えて、前記プロセッサは、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々を入力とし、入力された注目領域に包含される対象物が属するクラスを出力とする学習済モデルを用いて、前記検査処理を実行する、という構成が採用されている。
In the inspection device according to aspect 4 of the present invention, in addition to the configuration of the inspection device according to any one of
本発明の態様5に係る検査方法は、単一又は複数のプロセッサが、複数の対象物を被写体として含む入力画像において、それぞれが単一の対象物を包含する複数の注目領域を特定する第1特定処理と、前記プロセッサが、前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、前記プロセッサが、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を含んでいる。 The inspection method according to aspect 5 of the present invention includes a first identification process in which a single or multiple processors identify multiple regions of interest each including a single object in an input image containing multiple objects as subjects, a second identification process in which the processors identify single or multiple regions of interest each including a single object in the input image, the regions of interest being different from the regions of interest identified in the first identification process, based on the periodicity of the multiple regions of interest identified in the first identification process, and an inspection process in which the processors perform image inspection of the objects included in the regions of interest based on each of the multiple regions of interest identified in the first identification process and the single or multiple regions of interest identified in the second identification process.
本発明の態様6に係る検査プログラムは、コンピュータを態様1~4の何れか一態様に係る検査装置として動作させるための検査プログラムであって、前記コンピュータが備えるプロセッサに前記各処理を実行させる。
The inspection program according to aspect 6 of the present invention is an inspection program for operating a computer as an inspection device according to any one of
本発明の一態様によれば、入力画像において対象物を包含する注目領域の特定に失敗する可能性が従来よりも低い検査技術を実現することができる。 According to one aspect of the present invention, it is possible to realize an inspection technique that is less likely than conventional techniques to fail to identify a region of interest that contains an object in an input image.
(検査装置の構成)
本発明の一実施形態に係る検査装置1の構成について、図1を参照して説明する。図1は、検査装置1の構成を示すブロックである。
(Configuration of the inspection device)
The configuration of an
検査装置1は、周期的に配置された複数の対象物O1,O2,…,On(nは2以上の自然数)を被写体として含む入力画像Imgに基づいて、各対象物Oi(i=1,2,…,n)の検査を行う装置である。対象物O1,O2,…,Onとしては、例えば、ウエハ上に形成されたレーザダイオードチップが挙げられる。
The
検査装置1は、図1に示すように、メモリ11と、プロセッサ12と、ストレージ13と、を備えている。メモリ11、プロセッサ12、及びストレージ13は、不図示のバスを介して互いに接続されている。このバスには、更に、不図示の入出力インタフェース、及び、不図示の通信インタフェースが接続されていてもよい。この入出力インタフェースは、例えば、外部装置(例えば、カメラ)から検査装置1に入力画像を入力するため、或いは、検査装置1から外部装置(例えば、ディスプレイ)に検査結果を出力するために利用される。また、この通信インタフェースは、例えば、外部装置(例えば、カメラに接続された他のコンピュータ)から提供された入力画像を検査装置1が受信するため、或いは、外部装置(例えば、ディスプレイに接続された他のコンピュータ)に提供する検査結果を検査装置1が送信するために利用される。
As shown in FIG. 1, the
メモリ11は、後述する検査方法S1を実施するための検査プログラムPと、後述する検査方法S1で利用される学習済モデルMとを記録するための構成である。なお、メモリ11としては、例えば、半導体RAM(Random Access Memory)等を用いることができる。また、学習済モデルMとしては、例えば、CNN(Convolutional Neural Network)を用いることができる。また、ロジスティック回帰モデル、サポートベクトルマシン、ランダムフォレストなどを、学習済モデルMとして用いてもよい。
The
プロセッサ12は、メモリ11に記憶された検査プログラムPに従って、後述する検査方法S1を実行するための構成である。プロセッサ12としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、TPU(Tensor Processing Unit)等のASIC(Application Specific Integrated Circuit)又は、これらの組み合わせ等を用いることができる。
The
ストレージ13は、上述した検査プログラムPと上述した学習済モデルMとを格納(不揮発保存)するための構成である。プロセッサ12は、後述する検査方法S1を実行する際に、ストレージ13に格納された検査プログラムP及び学習済モデルMをメモリ11上に展開して参照する。なお、ストレージ13としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせ等を用いることができる。
The
なお、本明細書において、「画像」とは、画素値の2次元配列のことを指す。モノクロ画像における画素値は、例えば、輝度に対応する1つの数値であり、カラー画像における画素値は、例えば、RGB、CMY、YUV等のフォーマットに対応した3つ又は4つの数値である。また、後述する「注目領域」など、入力画像における一領域も、画素値の2次元配列であり、画像と見做すことができる。 In this specification, "image" refers to a two-dimensional array of pixel values. A pixel value in a monochrome image is, for example, a single numerical value corresponding to brightness, and a pixel value in a color image is, for example, three or four numerical values corresponding to a format such as RGB, CMY, YUV, etc. Also, an area in an input image, such as the "area of interest" described below, is also a two-dimensional array of pixel values and can be considered an image.
また、検査装置1が行う検査は、正常及び異常の種類を識別しない二値判定であってもよいし、正常及び/又は異常の種類を識別する多値判定であってもよい。二値判定の場合、検査結果は、2個のクラス(正常、異常)の何れかであり、例えば、ブーリアン型の数値によって表現される。この場合、正常である確率及び異常である確率の一方又は両方を表す実数型の数値又はその組み合わせを判定結果としてもよい。多値判定の場合、N種類の正常及びM種類の異常が識別可能であるとすると、検査結果は、N+M個のクラス(正常1、正常2、…、正常M、異常1、異常2、…、異常M)の何れかであり、例えば、整数型の数値によって表現することができる。この場合、正常1である確率、正常2である確率、…、正常Nである確率、異常1である確率、異常2である確率、…、及び異常Mである確率の一部又は全部を表す実数型の数値又はその組み合わせを判定結果としてもよい。ここで、N及びMのうち、一方は、1以上の自然数であり、他方は、2以上の自然数である。更に、検査結果に、「判定保留」など、正常でも異常でもないもの(又はその確率)が含まれていてもよい。
The inspection performed by the
なお、ここでは、検査方法S1を単一のコンピュータに設けられた単一のプロセッサ12が実行する構成について説明したが、これに限定されない。すなわち、検査方法S1を単一のコンピュータに設けられた、或いは、複数のコンピュータに分散して設けられた複数のプロセッサが共同して実行する構成を採用することも可能である。
Note that, although the configuration in which inspection method S1 is executed by a
また、ここでは、学習済モデルMを単一のコンピュータに設けられた単一のメモリ11に記憶させる構成について説明したが、これに限定されない。すなわち、学習済モデルMを単一のコンピュータに設けられた、或いは、複数のコンピュータに分散して設けられた複数のメモリに分散して記憶させる構成を採用することも可能である。
In addition, although a configuration in which the trained model M is stored in a
なお、プロセッサ12に検査方法S1を実行させるための検査プログラムPは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録され得る。この記録媒体は、メモリ11であってもよいし、ストレージ13であってもよいし、その他の記録媒体であってもよい。例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路が、その他の記録媒体として利用可能である。
The inspection program P for causing the
(検査方法の流れ)
検査装置1が実施する検査方法S1の流れについて、図2を参照して説明する。図2は、検査方法S1の流れを示すフロー図である。
(Testing method flow)
The flow of the inspection method S1 performed by the
検査方法S1は、図2に示すように、特定処理S11と、生成処理S12と、検査処理S13と、を含んでいる。なお、以下の説明においては、複数の対象物O1,O2,…,Onを被写体として含む入力画像Imgが検査装置1のメモリ11に格納されているものとする。
As shown in FIG. 2, the inspection method S1 includes a specification process S11, a generation process S12, and an inspection process S13. In the following description, it is assumed that an input image Img containing multiple objects O1, O2, ..., On as subjects is stored in the
特定処理S11は、入力画像Imgにおいて、それぞれが単一の対象物Oi(i=1,2,…,n)を包含する複数の注目領域A1,A2,…,Anを特定するための処理である。注目領域Aiは、入力画像Imgにおいて対応する対象物Oiを包含する領域であり、(1)対応する対象物Oiの像が注目領域Aiの外部と共通部分を持たないように、且つ、(2)それ以外の対象物Oj(j≠i)の像が注目領域Aiの内部と共通部分を持たないように設定されていることが好ましい。本実施形態において、特定処理S11は、検査装置1が備えるプロセッサ12によって実行される。
The identification process S11 is a process for identifying multiple attention areas A1, A2, ..., An in the input image Img, each of which contains a single object Oi (i = 1, 2, ..., n). The attention area Ai is an area in the input image Img that contains the corresponding object Oi, and is preferably set so that (1) the image of the corresponding object Oi does not have any common parts with the outside of the attention area Ai, and (2) the images of other objects Oj (j ≠ i) do not have any common parts with the inside of the attention area Ai. In this embodiment, the identification process S11 is executed by the
生成処理S12は、特定処理S11にて特定した各注目領域Aiについて、その注目領域Aiを含む画像Imgiを生成するための処理である。本実施形態において、生成処理S12は、検査装置1が備えるプロセッサ12によって実行される。
The generation process S12 is a process for generating an image Imgi including each attention area Ai identified in the identification process S11. In this embodiment, the generation process S12 is executed by the
検査処理S13は、生成処理S12にて生成した各画像Imgiに基づいて、その画像Imgiに被写体として含まれる対象物Oiの画像検査を行うための処理である。本実施形態において、検査処理S13は、検査装置1が備えるプロセッサ12によって、学習済モデルMを用いて実行される。
The inspection process S13 is a process for performing image inspection of an object Oi contained as a subject in each image Imgi generated in the generation process S12, based on that image Imgi. In this embodiment, the inspection process S13 is executed by the
学習済モデルMは、対象物を被写体として含む画像を入力とし、その対象物が属するクラスを出力するモデルである。学習済モデルMは、例えば、対象物(属するクラスが既知の対象物)を被写体として含む画像とその対象物が属するクラスとの組を教師データとする機械学習によって構築される。 The trained model M is a model that takes an image containing an object as a subject as input and outputs the class to which the object belongs. The trained model M is constructed, for example, by machine learning using pairs of images containing an object (an object whose class is known) as a subject and the class to which the object belongs as training data.
(特定処理の具体例)
検査方法S1に含まれる特定処理S11の具体例について、図3を参照して説明する。図3は、本具体例に係る特定処理S11の流れを示すフロー図である。
(Specific examples of specific processing)
A specific example of the specific process S11 included in the inspection method S1 will be described with reference to Fig. 3. Fig. 3 is a flow chart showing the flow of the specific process S11 according to this specific example.
対象物Oiの状態、又は、入力画像Imgにおける対象物Oiの像の状態によっては、テンプレートマッチングを用いてその対象物Oiを包含する注目領域Aiを特定することが困難になる場合がある。本具体例に係る特定処理S11は、このような場合であっても、入力画像Imgに被写体として含まれる全ての対象物O1,O2,…,Onについて、対象物Oiを包含する注目領域Aiを特定することができるように工夫したものである。以下、説明の便宜上、n-m個の対象物O1,O2,…On-mを、テンプレートマッチングにより注目領域を特定することが可能な対象物とし、m個の対象物On-m+1,On-m+2,…,Onを、テンプレートマッチングにより注目領域を特定することが不可能な対象物とする。ここで、mは、1以上n-2以下の自然数であり、テンプレートマッチングにより注目領域を特定することが不可能な対象物の個数を表す。
Depending on the state of the object Oi or the state of the image of the object Oi in the input image Img, it may be difficult to identify the attention area Ai containing the object Oi using template matching. The identification process S11 according to this specific example is devised so that even in such a case, it is possible to identify the attention area Ai containing the object Oi for all objects O1, O2, ..., On included as subjects in the input image Img. For the sake of convenience, n-m objects O1, O2, ..., On-m are defined as objects whose attention area can be identified by template matching, and m objects On-
本具体例に係る特定処理S11は、図3に示すように、第1特定処理S111と、第2特定処理S112と、を含んでいる。 As shown in FIG. 3, the specific process S11 in this specific example includes a first specific process S111 and a second specific process S112.
第1特定処理S111は、入力画像Imgにおいて、それぞれが単一の対象物Oj(j=1,2,…,n-m)を包含するn-m個の注目領域A1,A2,…,An-mを、テンプレートマッチングを用いて特定するための処理である。第1特定処理S111にて特定される各注目領域Ajは、入力画像Imgにおいて対象物Ojを包含する領域となる。本実施形態において、第1特定処理S111は、検査装置1が備えるプロセッサ12によって実行される。
The first identification process S111 is a process for identifying nm-m regions of interest A1, A2, ..., An-m, each of which contains a single object Oj (j = 1, 2, ..., nm) in the input image Img, using template matching. Each region of interest Aj identified in the first identification process S111 is an area in the input image Img that contains the object Oj. In this embodiment, the first identification process S111 is executed by the
第2特定処理S112は、入力画像Imgにおいて、第1特定処理S111にて特定した注目領域A1,A2,…,An-mとは異なるm個の注目領域An-m+1,An-m+2,…,Anを、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mの周期性を用いて特定するための処理である。入力画像Imgにおいて対象物O1,O2,…,Onが周期的に配置されている場合、第2特定処理S112にて特定される各注目領域Akは、第1特定処理S111にて特定される注目領域Ajと同様、入力画像Imgにおいて対応する対象物Okを包含する領域となる。本実施形態において、第2特定処理S112は、検査装置1が備えるプロセッサ12によって実行される。
The second identification process S112 is a process for identifying m areas of interest An-
第2特定処理S112は、図3に示すように、第1算出処理S112aと、第2算出処理S112bと、により構成することができる。 The second identification process S112 can be composed of a first calculation process S112a and a second calculation process S112b, as shown in FIG. 3.
第1算出処理S112aは、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mのうち、画素行方向(特許請求の範囲における「第1の方向」の一例)に並んで隣接する2つの注目領域の代表点の間隔dx、及び、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mのうち、画素列方向(特許請求の範囲における「第2の方向」の一例)に並んで隣接する2つの注目領域の代表点の間隔dyを算出するための処理である。 The first calculation process S112a is a process for calculating the distance dx between the representative points of two adjacent attention areas aligned in the pixel row direction (an example of the "first direction" in the claims) among the nm-m attention areas A1, A2, ..., An-m identified in the first identification process S111, and the distance dy between the representative points of two adjacent attention areas aligned in the pixel column direction (an example of the "second direction" in the claims) among the nm-m attention areas A1, A2, ..., An-m identified in the first identification process S111.
第2算出処理S112bは、第1算出処理S112aにて算出された間隔dx,dyに基づいて、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mとは異なるm個の注目領域An-m+1,An-m+2,…,Anの代表点の座標を算出するための処理である。m個の注目領域An-m+1,An-m+2,…,Anは、代表点の座標が第2算出処理S112bにて算出された座標に一致する注目領域に設定される。
The second calculation process S112b is a process for calculating the coordinates of representative points of m attention areas An-
図4は、本具体例に係る特定処理S11の実行例を示す図である。ここでは、図4の(a)に示すように、4つの対象物O1,O2,O3,O4を被写体として含む入力画像Imgを考える。3つの対象物O1,O2,O3は、テンプレートマッチングにより注目領域を特定することが可能な対象物であり、残り1つの対象物O4は、異物の付着等によりテンプレートマッチングにより注目領域を特定することが不可能な対象物である。 Figure 4 is a diagram showing an example of execution of the identification process S11 according to this specific example. Here, as shown in (a) of Figure 4, consider an input image Img that includes four objects O1, O2, O3, and O4 as subjects. The three objects O1, O2, and O3 are objects for which it is possible to identify the region of interest by template matching, while the remaining object O4 is an object for which it is impossible to identify the region of interest by template matching due to the presence of a foreign matter or the like.
第1特定処理S111においては、図4の(b)に示すように、3つの対象物O1,O2,O3をそれぞれ包含する3つの注目領域A1,A2,A3がテンプレートマッチングにより特定される。 In the first identification process S111, as shown in FIG. 4B, three attention areas A1, A2, and A3 that respectively include three objects O1, O2, and O3 are identified by template matching.
第2特定処理S112の第1算出処理S112aにおいては、図4の(c)に示すように、画素行方向に並んで隣接する2つの注目領域A1,A2の代表点P1,P2の間隔dxと、画素列方向に並んで隣接する2つの注目領域A1,A3の代表点P1,P3の間隔dyとが算出される。ここでは、各注目領域Aiを、画素行方向に平行な辺と画素列方向に平行な辺とを有する矩形領域とし、各注目領域Aiの代表点Piを、その矩形領域の左上隅の頂点とした。 In the first calculation process S112a of the second identification process S112, as shown in FIG. 4(c), the distance dx between the representative points P1, P2 of two adjacent attention areas A1, A2 aligned in the pixel row direction, and the distance dy between the representative points P1, P3 of two adjacent attention areas A1, A3 aligned in the pixel column direction are calculated. Here, each attention area Ai is defined as a rectangular area having a side parallel to the pixel row direction and a side parallel to the pixel column direction, and the representative point Pi of each attention area Ai is defined as the vertex of the upper left corner of the rectangular area.
第2特定処理S112の第2算出処理S112bにおいては、図4の(d)に示すように、第1算出処理S112aにて算出された間隔dx,dyに基づいて、残り1つの注目領域A4の代表点P4の座標が算出される。具体的には、注目領域A4の代表点P4のx座標(画素行方向の座標)が、注目領域A3の代表点P3の画素行方向の座標に間隔dxを加算することによって算出され、注目領域A4の代表点P4のy座標(画素列方向の座標)が、注目領域A2の代表点P2の画素列方向の座標に間隔dyを加算することによって算出される。そして、注目領域A4が、左上隅の頂点の座標が第2算出処理S112bにて算出された座標に一致する矩形領域に設定される。 In the second calculation process S112b of the second identification process S112, as shown in FIG. 4D, the coordinates of the representative point P4 of the remaining attention area A4 are calculated based on the intervals dx and dy calculated in the first calculation process S112a. Specifically, the x coordinate (coordinate in the pixel row direction) of the representative point P4 of the attention area A4 is calculated by adding the interval dx to the coordinate in the pixel row direction of the representative point P3 of the attention area A3, and the y coordinate (coordinate in the pixel column direction) of the representative point P4 of the attention area A4 is calculated by adding the interval dy to the coordinate in the pixel column direction of the representative point P2 of the attention area A2. Then, the attention area A4 is set to a rectangular area whose coordinates of the vertex of the upper left corner match the coordinates calculated in the second calculation process S112b.
(生成処理の具体例)
検査方法S1に含まれる生成処理S12の具体例について、図5を参照して説明する。図5は、本具体例に係る生成処理S12の流れを示すフロー図である。
(Specific example of generation process)
A specific example of the generation process S12 included in the inspection method S1 will be described with reference to Fig. 5. Fig. 5 is a flow diagram showing the flow of the generation process S12 according to this specific example.
本具体例に係る生成処理S12は、図5に示すように、切り出し処理S121と、埋め込み処理122と、を含んでいる。 As shown in FIG. 5, the generation process S12 in this specific example includes a cut-out process S121 and an embedding process S122.
切り出し処理S121は、特定処理S11にて特定した各注目領域Aiを入力画像Imgから切り出すための処理である。埋め込み処理S122は、切り出し処理S121にて切り出した各注目領域Aiを、予め定められたサイズの画像Imgiに無加工で埋め込むための処理である。ここで、注目領域Aiを「無加工で埋め込む」とは、拡大、縮小、回転などの画像処理を施すことなく、入力画像Imgから切り出した注目領域Aiをそのまま(全ての画素の画素値を変化させることなく)埋め込むことを指す。これにより、各注目領域Aiについて、予め定められたサイズの画像Imgiであって、その注目領域Aiが無加工で埋め込まれた画像Imgiが生成される。切り出し処理S121にて生成される画像Imgiにおいて、注目領域Aiが埋め込まれた部分以外の画素は、同一の画素値に設定される。これらの画素の画素値は、任意であり、例えば、黒に対応する画素値であってもよいし、白に対応する画素値であってもよい。 The cut-out process S121 is a process for cutting out each attention area Ai identified in the identification process S11 from the input image Img. The embedding process S122 is a process for embedding each attention area Ai cut out in the cut-out process S121 in an image Imgi of a predetermined size without processing. Here, "embedding without processing" the attention area Ai refers to embedding the attention area Ai cut out from the input image Img as it is (without changing the pixel values of all pixels) without performing image processing such as enlargement, reduction, and rotation. As a result, an image Imgi of a predetermined size is generated for each attention area Ai, in which the attention area Ai is embedded without processing. In the image Imgi generated in the cut-out process S121, pixels other than the part where the attention area Ai is embedded are set to the same pixel value. The pixel values of these pixels are arbitrary, and may be, for example, a pixel value corresponding to black or a pixel value corresponding to white.
図6は、本具体例に係る生成処理S12により生成される画像Imgiの具体例を示す図である。 Figure 6 shows a specific example of an image Imgi generated by generation process S12 in this specific example.
図6の(a)に示す画像Img1は、600画素×1200画素の画像である。注目領域A1は、入力画像Imgにおいて画素行方向に平行な辺と画素列方向に平行の辺とを有する長方形領域である。この注目領域A1が拡大されることも、縮小されることも、回転されることもなく、そのまま画像Img1に埋め込まれている。画像Img1において、注目領域A1が埋め込まれた部分以外の画素の画素値は、一律に黒を表す画素値に設定されている。 Image Img1 shown in FIG. 6(a) is an image of 600 pixels by 1200 pixels. Area of interest A1 is a rectangular area in the input image Img with sides parallel to the pixel row direction and sides parallel to the pixel column direction. This area of interest A1 is embedded as is in image Img1 without being enlarged, reduced, or rotated. In image Img1, the pixel values of pixels other than the part where area of interest A1 is embedded are uniformly set to a pixel value that represents black.
図6の(b)に示す画像Img2は、図6の(a)に示す画像Img1と同様、600画素×1200画素の画像である。注目領域A2は、入力画像Imgにおいて画素行方向に平行な辺と画素列方向に平行な辺とを有する長方形領域である。この注目領域A2は注目領域A1よりも小さいが、この注目領域A2が拡大されることも、縮小されることも、回転されることもなく、そのまま画像Img2に埋め込まれている。画像Img2において、注目領域A2が埋め込まれた部分以外の画素の画素値は、画像Img1と同様、一律に黒を表す画素値に設定されている。 Image Img2 shown in FIG. 6(b) is an image of 600 pixels by 1200 pixels, similar to image Img1 shown in FIG. 6(a). Area of interest A2 is a rectangular area in the input image Img with sides parallel to the pixel row direction and sides parallel to the pixel column direction. This area of interest A2 is smaller than area of interest A1, but this area of interest A2 is embedded in image Img2 as is, without being enlarged, reduced, or rotated. In image Img2, the pixel values of pixels other than the part where area of interest A2 is embedded are set uniformly to pixel values representing black, similar to image Img1.
図6の(c)に示す画像Img3は、図6の(a)に示す画像Img1及び図6の(b)に示す画像Img2と同様、600画素×1200画素の画像である。注目領域A3は、入力画像Imgにおいて画素行方向に非平行な辺と画素列方向に非平行な辺とを有する長方形領域である。この注目領域A3は傾いているが、この注目領域A3が拡大されることも、縮小されることも、回転されることもなく、そのまま画像Img3に埋め込まれている。画像Img3において、注目領域A3が埋め込まれた部分以外の画素の画素値は、画像Img1及び画像Img2と同様、一律に黒を表す画素値に設定されている。 Image Img3 shown in FIG. 6(c) is an image of 600 pixels by 1200 pixels, similar to image Img1 shown in FIG. 6(a) and image Img2 shown in FIG. 6(b). Area of interest A3 is a rectangular area in the input image Img that has sides that are non-parallel to the pixel row direction and sides that are non-parallel to the pixel column direction. This area of interest A3 is tilted, but it is embedded as is in image Img3 without being enlarged, reduced, or rotated. In image Img3, the pixel values of pixels other than the part where area of interest A3 is embedded are set uniformly to pixel values that represent black, similar to images Img1 and Img2.
(適用例)
本実施形態に係る検査装置1は、例えば、単一のウエハ上に形成された複数のレーザダイオードチップの検査に適用することができる。このようなウエハを撮像することにより得られた入力画像を、図7の(a)に示す。
(Examples of application)
The
テンプレートマッチングに用いるテンプレートは、レーザダイオードの全体にマッチするテンプレートであってもよいし、レーザダイオードの一部にマッチするテンプレートであってもよい。後者のテンプレートの例としては、例えば、レーザダイオードの上端及び下端にマッチするテンプレートや、レーザダイオードの右端及び左端にマッチするテンプレートなどが挙げられる。レーザダイオードの上端及び下端にマッチするテンプレートを用いたテンプレートマッチングにより検出された領域を、図7の(b)に示す。図7の(b)においては、テンプレートマッチングにより検出された領域を点線の矩形で囲んで示している。 The template used for template matching may be a template that matches the entire laser diode, or a template that matches a portion of the laser diode. Examples of the latter template include a template that matches the top and bottom ends of the laser diode, or a template that matches the right and left ends of the laser diode. The area detected by template matching using a template that matches the top and bottom ends of the laser diode is shown in FIG. 7(b). In FIG. 7(b), the area detected by template matching is shown surrounded by a dotted rectangle.
レーザダイオードの全体にマッチするテンプレートを用いた場合、テンプレートマッチングにより検出された領域を、そのまま注目領域として特定すればよい。一方、レーザダイオードの一部にマッチするテンプレートを用いた場合、テンプレートマッチングにより検出された領域から所定のアルゴリズムに従って導出される領域を、注目領域として特定すればよい。例えば、レーザダイオードの上端及び下端にマッチするテンプレートを用いた場合、テンプレートマッチングにより検出された領域のうち画素列方向に並んで隣接する2つの領域を渡る矩形領域を、注目領域として特定すればよい。このようにして特定された注目領域を、図7の(c)に示す。図7の(c)においては、このようにして特定された注目領域を実線の矩形で囲んで示している。 When a template that matches the entire laser diode is used, the area detected by template matching can be identified as the area of interest. On the other hand, when a template that matches part of the laser diode is used, the area derived from the area detected by template matching according to a specified algorithm can be identified as the area of interest. For example, when a template that matches the upper and lower ends of the laser diode is used, a rectangular area that spans two adjacent areas lined up in the pixel column direction among the areas detected by template matching can be identified as the area of interest. The area of interest identified in this way is shown in FIG. 7(c). In FIG. 7(c), the area of interest identified in this way is shown surrounded by a solid-line rectangle.
図7の(d)は、異物が付着しているウエハを撮像することにより得られた入力画像である。このような場合、異物が付着した領域に関して、テンプレートマッチングに失敗することがある。しかしながら、上述したように、注目領域を第1特定処理S111及び第2特定処理S112により二段階特定するようにすれば、異物が付着した領域において注目領域の設定に失敗する可能性を有意に低減することができる。 Figure 7(d) shows an input image obtained by imaging a wafer with foreign matter attached. In such a case, template matching may fail for the area where the foreign matter is attached. However, as described above, by identifying the area of interest in two stages by the first identification process S111 and the second identification process S112, the possibility of failing to set the area of interest in the area where the foreign matter is attached can be significantly reduced.
(検査装置の効果1)
以上のように、本実施形態に係る検査装置1は、第1特定処理S111と、第2特定処理S112と、検査処理S13とを実行するプロセッサ12を備えている。第1特定処理S111は、n個の対象物O1,O2,…,Onを被写体として含む入力画像Imgにおいて、それぞれが単一の対象物Oj(j=1,2,…,n-m)を包含するn-m個の注目領域A1,A2,…,An-mを特定する処理である。また、第2特定処理S112は、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mとは異なるm個の注目領域An-m+1,An-m+2,…,Anを、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mの周期性に基づいて特定する処理である。検査処理S13は、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-m、及び、第2特定処理S112にて特定したm個の注目領域An-m+1,An-m+2,…,Anの各々に基づいて、注目領域Ai(i=1,2,…,n)に包含される対象物Oiの画像検査を行う処理である。
(
As described above, the
上記の構成によれば、入力画像Imgにおいて対象物O1,O2,…,Onが周期的に配置されている場合、第1特定処理S111において対象物On-m+1,On-m+2,…,Onを包含する注目領域An-m+1,An-m+2,…,Anの特定に失敗しても、これらの対象物On-m+1,On-m+2,…,Onを包含する注目領域An-m+1,An-m+2,…,Anを、第2特定処理S112において特定することができる。したがって、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onを漏れなく検査することが可能な検査装置1を実現することができる。なお、上述した検査方法S1によっても、同様の効果が得られる。また、上述した検査プログラムPをコンピュータに実行させることによっても、同様の効果が得られる。
According to the above configuration, when objects O1, O2, ..., On are arranged periodically in the input image Img, even if the first identification process S111 fails to identify the attention areas An-
また、本実施形態に係る検査装置1において、プロセッサ12は、テンプレートマッチングを用いて第1特定処理S111を実行する。
In addition, in the
上記の構成によれば、第1特定処理S111において効率的に対象物O1,O2,…,On-mを包含する注目領域A1,A2,…,An-mを特定することが可能な検査装置1を実現することができる。
The above configuration makes it possible to realize an
また、本実施形態に係る検査装置1において、プロセッサ12は、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-m、及び、第2特定処理S112にて特定したm個の注目領域An-m+1,An-m+2,…,Anの各々を入力とし、入力された注目領域Aiに包含される対象物Oiが属するクラスを出力とする学習済モデルMを用いて、検査処理S13を実行する。
In addition, in the
上記の構成によれば、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onをそれぞれ精度良く検査することが可能な検査装置1を実現することができる。
The above configuration makes it possible to realize an
(検査装置の効果2)
以上のように、本実施形態に係る検査装置1は、特定処理S11と、生成処理S12と、検査処理S13と、を実行するプロセッサ12を備えている。特定処理S11は、n個の対象物O1,O2,…,Onを被写体として含む入力画像Imgにおいて、それぞれが単一の対象物Ojを包含するn個の注目領域A1,A2,…,Anを特定する処理である。生成処理S12は、特定処理S11にて特定したn個の注目領域A1,A2,…,Anの各々について、予め定められたサイズの画像Imgi(i=1,2,…,n)であって、注目領域Aiが無加工で埋め込まれた画像Imgiを生成する処理である。検査処理S13は、生成処理S12にて生成したn個の画像Img1,Img2,…,Imgnの各々に基づいて、画像Imgiに埋め込まれた注目領域Aiに包含される対象物Oiの画像検査を行う処理である。
(Effect of the inspection device 2)
As described above, the
上記の構成によれば、検査処理S13において参照される画像Img1,Img2,…,Imgnのサイズが一律になる。また、上記の構成によれば、検査処理S13において参照される各画像Imgiに加工により劣化していない注目領域Aiが埋め込まれる。したがって、検査処理S13を特定のアルゴリズムに従って精度良く実行することが可能な検査装置1を実現することができる。上述した検査方法S1によっても、同様の効果が得られる。また、上述した検査プログラムPをコンピュータに実行させることによっても、同様の効果が得られる。
According to the above configuration, the images Img1, Img2, ..., Imgn referenced in the inspection process S13 have a uniform size. Furthermore, according to the above configuration, an area of interest Ai that has not been degraded by processing is embedded in each image Imgi referenced in the inspection process S13. Therefore, it is possible to realize an
また、本実施形態に係る検査装置1において、プロセッサ12は、テンプレートマッチングを用いて第1特定処理S111を実行する。
In addition, in the
上記の構成によれば、第1特定処理S111において効率的に対象物O1,O2,…,Onを包含する注目領域A1,A2,…,Anを特定することが可能な検査装置1を実現することができる。
The above configuration makes it possible to realize an
また、本実施形態に係る検査装置1において、プロセッサ12は、生成処理S12において、注目領域Aiが埋め込まれた部分以外の画素の画素値が同一である画像Imgiを生成する。
In addition, in the
上記の構成によれば、画像Imgiにおいて注目領域Aiが埋め込まれた部分以外の画素の画素値が検査結果に与える影響を小さくすることができる。したがって、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onをそれぞれ精度良く検査することが可能な検査装置1を実現することができる。
The above configuration can reduce the influence on the inspection results of the pixel values of pixels other than the part in which the attention area Ai is embedded in the image Imgi. Therefore, it is possible to realize an
また、本実施形態に係る検査装置1において、プロセッサ12は、生成処理S12にて生成した画像Img1,Img2,…,Imgnの各々を入力とし、入力された画像Imgiに埋め込まれた注目領域Aiに包含される対象物Oiが属するクラスを出力とする学習済モデルMを用いて、検査処理S13を実行する。
In addition, in the
上記の構成によれば、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onをそれぞれ精度良く検査することが可能な検査装置1を実現することができる。
The above configuration makes it possible to realize an
(付記事項)
本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能であり、上述した実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
(Additional Notes)
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims. Embodiments obtained by appropriately combining the technical means disclosed in the above-described embodiments are also included in the technical scope of the present invention.
1 検査装置
11 メモリ
12 プロセッサ
13 ストレージ
P 検査プログラム
M 学習済モデル
1
Claims (6)
前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、
前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を実行する単一又は複数のプロセッサを備え
ている、
ことを特徴とする検査装置。 a first identification process for identifying a plurality of interest regions each including a single object in an input image including a plurality of objects as subjects;
a second identification process for identifying, in the input image, a single or multiple attention regions each including a single object, different from the attention regions identified in the first identification process, based on a periodicity of the multiple attention regions identified in the first identification process;
and an inspection process for performing an image inspection of an object included in each of the plurality of attention areas identified in the first identification process and the single or plurality of attention areas identified in the second identification process.
An inspection device characterized by:
ことを特徴とする請求項1に記載の検査装置。 The processor executes the first identification process using template matching.
2. The inspection apparatus according to claim 1 .
ことを特徴とする請求項1又は2に記載の検査装置。 In the second identification process, the processor executes: (1) a first calculation process to calculate one or both of an interval between representative points of two adjacent attention areas aligned in a first direction among the multiple attention areas identified in the first identification process, and an interval between representative points of two adjacent attention areas aligned in a second direction intersecting the first direction among the multiple attention areas identified in the first identification process; and (2) a second calculation process to calculate, based on the interval calculated in the first calculation process, coordinates of a representative point of a attention area other than the attention area identified in the first identification process.
3. The inspection apparatus according to claim 1 or 2.
ことを特徴とする請求項1~3の何れか一項に記載の検査装置。 The processor executes the inspection process using a trained model that receives as input each of the multiple regions of interest identified in the first identification process and the single or multiple regions of interest identified in the second identification process, and outputs a class to which an object included in the input region of interest belongs.
4. The inspection device according to claim 1, wherein the inspection device is a semiconductor laser.
前記プロセッサが、前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、
前記プロセッサが、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を含んでいる、
ことを特徴とする検査方法。 A first identification process in which a single or multiple processors identify a plurality of interest regions each including a single object in an input image including a plurality of objects as subjects;
a second identification process in which the processor identifies, in the input image, a single or multiple attention regions, each of which includes a single object, different from the attention regions identified in the first identification process, based on a periodicity of the multiple attention regions identified in the first identification process;
and an inspection process in which the processor performs an image inspection of an object included in each of the plurality of attention regions identified in the first identification process and the single or plurality of attention regions identified in the second identification process.
13. An inspection method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020197398A JP7471207B2 (en) | 2020-11-27 | 2020-11-27 | Inspection device, inspection method, and inspection program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020197398A JP7471207B2 (en) | 2020-11-27 | 2020-11-27 | Inspection device, inspection method, and inspection program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022085624A JP2022085624A (en) | 2022-06-08 |
JP7471207B2 true JP7471207B2 (en) | 2024-04-19 |
Family
ID=81892416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020197398A Active JP7471207B2 (en) | 2020-11-27 | 2020-11-27 | Inspection device, inspection method, and inspection program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7471207B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005221287A (en) | 2004-02-04 | 2005-08-18 | Matsushita Electric Ind Co Ltd | Method and apparatus for inspecting substrate |
JP2009300230A (en) | 2008-06-12 | 2009-12-24 | Olympus Corp | Device, method and program for performing alignment, and device, method, and program for making standard model |
WO2020070156A1 (en) | 2018-10-02 | 2020-04-09 | Carl Zeiss Smt Gmbh | Method of recording an image using a particle microscope |
-
2020
- 2020-11-27 JP JP2020197398A patent/JP7471207B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005221287A (en) | 2004-02-04 | 2005-08-18 | Matsushita Electric Ind Co Ltd | Method and apparatus for inspecting substrate |
JP2009300230A (en) | 2008-06-12 | 2009-12-24 | Olympus Corp | Device, method and program for performing alignment, and device, method, and program for making standard model |
WO2020070156A1 (en) | 2018-10-02 | 2020-04-09 | Carl Zeiss Smt Gmbh | Method of recording an image using a particle microscope |
Also Published As
Publication number | Publication date |
---|---|
JP2022085624A (en) | 2022-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019109563A (en) | Data generation device, data generation method, and data generation program | |
JP2018151748A (en) | Image processing device, image processing method, template generation device, object recognition processing device, and program | |
KR102559021B1 (en) | Apparatus and method for generating a defect image | |
US10713530B2 (en) | Image processing apparatus, image processing method, and image processing program | |
US10261849B1 (en) | Preventative remediation of services | |
JP7289658B2 (en) | Classification device, classification method, classification program, and inspection device | |
US11429806B2 (en) | Devices, systems, and methods for anomaly detection | |
JP2007535066A (en) | Image processing apparatus and method | |
US11568323B2 (en) | Electronic device and control method thereof | |
US11562479B2 (en) | Inspection apparatus, inspection method, and non-volatile storage medium | |
JP7471207B2 (en) | Inspection device, inspection method, and inspection program | |
JP2017162098A (en) | Learning method, information processing device and learning program | |
JP6937782B2 (en) | Image processing method and device | |
JP2020003879A (en) | Information processing device, information processing method, watermark detection device, watermark detection method, and program | |
JP2022085625A (en) | Inspection device, inspection method, and inspection program | |
CN115374517A (en) | Testing method and device for wiring software, electronic equipment and storage medium | |
JP7414629B2 (en) | Learning data processing device, learning device, learning data processing method, and program | |
JP2007199865A (en) | Image processing algorithm evaluation apparatus, image processing algorithm creation apparatus, image inspection apparatus, method for evaluating image processing algorithm, method for creating image processing algorithm, and method for inspecting image | |
WO2021152855A1 (en) | Deformation management device, deformation management method, and deformation management program | |
WO2020031423A1 (en) | Object detection method, object detection device, and computer program | |
US20220335631A1 (en) | Devices, systems, and methods for anomaly detection | |
JP2015103226A (en) | Data calculation method, data calculation apparatus, and defect inspection apparatus | |
JP7391784B2 (en) | Information processing device, information processing method and program | |
JP7322358B2 (en) | Information processing program, information processing method, and information processing apparatus | |
WO2023008509A1 (en) | Information processing program and information processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230628 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240402 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240409 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7471207 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |