JP7471207B2 - Inspection device, inspection method, and inspection program - Google Patents

Inspection device, inspection method, and inspection program Download PDF

Info

Publication number
JP7471207B2
JP7471207B2 JP2020197398A JP2020197398A JP7471207B2 JP 7471207 B2 JP7471207 B2 JP 7471207B2 JP 2020197398 A JP2020197398 A JP 2020197398A JP 2020197398 A JP2020197398 A JP 2020197398A JP 7471207 B2 JP7471207 B2 JP 7471207B2
Authority
JP
Japan
Prior art keywords
inspection
identification process
identified
attention
interest
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020197398A
Other languages
Japanese (ja)
Other versions
JP2022085624A (en
Inventor
公紀 黒澤
青 劉
真一 中鳥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujikura Ltd
Original Assignee
Fujikura Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujikura Ltd filed Critical Fujikura Ltd
Priority to JP2020197398A priority Critical patent/JP7471207B2/en
Publication of JP2022085624A publication Critical patent/JP2022085624A/en
Application granted granted Critical
Publication of JP7471207B2 publication Critical patent/JP7471207B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、複数の対象物を被写体として含む入力画像に基づいて各対象物の検査を行う検査装置、検査方法、及び、検査プログラムに関する。 The present invention relates to an inspection device, an inspection method, and an inspection program that inspects multiple objects based on an input image that contains the objects as subjects.

複数の対象物を被写体として含む入力画像に基づいて各対象物の検査を行う技術が知られている。このような技術の適用対象としては、例えば、ウエハ上に形成された複数のレーザダイオードチップの品質検査等が挙げられる。 Technology is known that inspects multiple objects based on an input image that contains the objects as subjects. One example of the application of such technology is the quality inspection of multiple laser diode chips formed on a wafer.

このような技術を開示した文献としては、例えば、特許文献1が挙げられる。特許文献1に記載の検査装置においては、まず、複数の対象物を被写体として含む入力画像から、入力画像よりも解像度の低い低解像度画像を生成される。そして、入力画像において各対象物を包含する注目領域を特定する特定処理が、低解像度画像を参照して実行され、その領域に包含された対象物を分類する分類処理が、入力画像を参照して実行される。これにより、分類処理における分類精度を犠牲にすることなく、特定処理におけるプロセッサの負荷を低減することに成功している。 For example, Patent Document 1 is an example of a document that discloses such a technology. In the inspection device described in Patent Document 1, first, a low-resolution image with a lower resolution than the input image is generated from an input image that contains multiple objects as subjects. Then, a specific process that identifies a region of interest that contains each object in the input image is performed with reference to the low-resolution image, and a classification process that classifies the objects contained in that region is performed with reference to the input image. This succeeds in reducing the processor load in the specific process without sacrificing the classification accuracy in the classification process.

特開2020-042754Patent Publication No. 2020-042754

しかしながら、従来の検査技術においては、対象物に異物が付着していたり、入力画像における対象物の像に光学的又は電気的ノイズが乗っていたりすると、その対象物を包含する注目領域の特定に失敗することがあった。例えば、テンプレートマッチングを用いて注目領域を特定する場合、上述した異物やノイズによりテンプレートと対象物の像との一致度が低下すると、その対象物を包含する注目領域の特定に失敗する可能性が高くなる。 However, conventional inspection techniques may fail to identify the region of interest that contains the object if a foreign object is attached to the object or if the image of the object in the input image contains optical or electrical noise. For example, when identifying the region of interest using template matching, if the degree of match between the template and the image of the object is reduced due to the above-mentioned foreign object or noise, there is a high possibility that the region of interest that contains the object will not be identified.

本発明の一態様は、上記の問題に鑑みてなされたものであり、入力画像において対象物を包含する注目領域の特定に失敗する可能性が従来よりも低い検査技術を実現することを目的とする。 One aspect of the present invention has been made in consideration of the above problems, and aims to realize an inspection technique that is less likely than conventional techniques to fail to identify a region of interest that contains an object in an input image.

本発明の態様1に係る検査装置は、複数の対象物を被写体として含む入力画像において、それぞれが単一の対象物を包含する複数の注目領域を特定する第1特定処理と、前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を実行する単一又は複数のプロセッサを備えている。 The inspection device according to aspect 1 of the present invention includes a single or multiple processors that execute a first identification process for identifying multiple regions of interest, each of which includes a single object, in an input image that includes multiple objects as subjects; a second identification process for identifying single or multiple regions of interest, each of which includes a single object, in the input image, that are different from the regions of interest identified in the first identification process, based on the periodicity of the multiple regions of interest identified in the first identification process; and an inspection process for performing image inspection of the objects included in the regions of interest, based on each of the multiple regions of interest identified in the first identification process and the single or multiple regions of interest identified in the second identification process.

本発明の態様2に係る検査装置においては、態様1に係る検査装置の構成に加え、前記プロセッサは、テンプレートマッチングを用いて、前記第1特定処理を実行する、という構成が採用されている。 In the inspection device according to aspect 2 of the present invention, in addition to the configuration of the inspection device according to aspect 1, the processor executes the first identification process using template matching.

本発明の態様3に係る検査装置においては、態様1又は2に係る検査装置の構成に加えて、前記プロセッサは、前記第2特定処理において、(1)前記第1特定処理にて特定した複数の注目領域のうち、第1の方向に並んで隣接する2つの注目領域の代表点の間隔、及び、前記第1特定処理にて特定した複数の注目領域のうち、前記第1の方向と交わる第2の方向に並んで隣接する2つの注目領域の代表点の間隔の一方又は両方を算出する第1算出処理と、(2)前記第1算出処理にて算出された間隔に基づいて、前記第1特定処理にて特定した注目領域とは異なる注目領域の代表点の座標を算出する第2算出処理と、を実行する、という構成が採用されている。 In the inspection device according to aspect 3 of the present invention, in addition to the configuration of the inspection device according to aspect 1 or 2, the processor executes, in the second identification process, (1) a first calculation process that calculates one or both of the interval between representative points of two adjacent attention areas aligned in a first direction among the multiple attention areas identified in the first identification process and the interval between representative points of two adjacent attention areas aligned in a second direction intersecting the first direction among the multiple attention areas identified in the first identification process, and (2) a second calculation process that calculates the coordinates of the representative points of an attention area other than the attention area identified in the first identification process based on the interval calculated in the first calculation process.

本発明の態様4に係る検査装置においては、態様1~3の何れか一態様に係る検査装置の構成に加えて、前記プロセッサは、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々を入力とし、入力された注目領域に包含される対象物が属するクラスを出力とする学習済モデルを用いて、前記検査処理を実行する、という構成が採用されている。 In the inspection device according to aspect 4 of the present invention, in addition to the configuration of the inspection device according to any one of aspects 1 to 3, the processor is configured to execute the inspection process using a trained model that receives as input each of the multiple regions of interest identified in the first identification process and the single or multiple regions of interest identified in the second identification process, and outputs the class to which the object contained in the input region of interest belongs.

本発明の態様5に係る検査方法は、単一又は複数のプロセッサが、複数の対象物を被写体として含む入力画像において、それぞれが単一の対象物を包含する複数の注目領域を特定する第1特定処理と、前記プロセッサが、前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、前記プロセッサが、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を含んでいる。 The inspection method according to aspect 5 of the present invention includes a first identification process in which a single or multiple processors identify multiple regions of interest each including a single object in an input image containing multiple objects as subjects, a second identification process in which the processors identify single or multiple regions of interest each including a single object in the input image, the regions of interest being different from the regions of interest identified in the first identification process, based on the periodicity of the multiple regions of interest identified in the first identification process, and an inspection process in which the processors perform image inspection of the objects included in the regions of interest based on each of the multiple regions of interest identified in the first identification process and the single or multiple regions of interest identified in the second identification process.

本発明の態様6に係る検査プログラムは、コンピュータを態様1~4の何れか一態様に係る検査装置として動作させるための検査プログラムであって、前記コンピュータが備えるプロセッサに前記各処理を実行させる。 The inspection program according to aspect 6 of the present invention is an inspection program for operating a computer as an inspection device according to any one of aspects 1 to 4, and causes a processor included in the computer to execute each of the above processes.

本発明の一態様によれば、入力画像において対象物を包含する注目領域の特定に失敗する可能性が従来よりも低い検査技術を実現することができる。 According to one aspect of the present invention, it is possible to realize an inspection technique that is less likely than conventional techniques to fail to identify a region of interest that contains an object in an input image.

本発明の一実施形態に係る検査装置の構成を示すブロック図である。1 is a block diagram showing a configuration of an inspection device according to an embodiment of the present invention; 本発明の一実施形態に係る検査方法の流れを示すフロー図である。FIG. 2 is a flow chart showing the flow of an inspection method according to an embodiment of the present invention. 図2の検査方法に含まれる特定処理の一具体例を示すフロー図である。3 is a flow chart showing a specific example of a specific process included in the inspection method of FIG. 2. 図3の特定処理の実行例を示す図である。FIG. 4 is a diagram illustrating an example of execution of the specific process in FIG. 3 . 図2の検査方法に含まれる生成処理の一具体例を示すフロー図である。3 is a flow diagram showing a specific example of a generation process included in the inspection method of FIG. 2. 図5の生成処理の実行例を示す図である。FIG. 6 illustrates an example of execution of the generation process of FIG. 5 . 図1の検査装置、及び、図2の検査方法の適用例を示す図である。3 is a diagram showing an application example of the inspection device of FIG. 1 and the inspection method of FIG. 2;

(検査装置の構成)
本発明の一実施形態に係る検査装置1の構成について、図1を参照して説明する。図1は、検査装置1の構成を示すブロックである。
(Configuration of the inspection device)
The configuration of an inspection device 1 according to an embodiment of the present invention will be described with reference to Fig. 1. Fig. 1 is a block diagram showing the configuration of the inspection device 1.

検査装置1は、周期的に配置された複数の対象物O1,O2,…,On(nは2以上の自然数)を被写体として含む入力画像Imgに基づいて、各対象物Oi(i=1,2,…,n)の検査を行う装置である。対象物O1,O2,…,Onとしては、例えば、ウエハ上に形成されたレーザダイオードチップが挙げられる。 The inspection device 1 is a device that inspects each object Oi (i=1, 2, ..., n) based on an input image Img that includes a number of periodically arranged objects O1, O2, ..., On (n is a natural number equal to or greater than 2) as subjects. The objects O1, O2, ..., On can be, for example, laser diode chips formed on a wafer.

検査装置1は、図1に示すように、メモリ11と、プロセッサ12と、ストレージ13と、を備えている。メモリ11、プロセッサ12、及びストレージ13は、不図示のバスを介して互いに接続されている。このバスには、更に、不図示の入出力インタフェース、及び、不図示の通信インタフェースが接続されていてもよい。この入出力インタフェースは、例えば、外部装置(例えば、カメラ)から検査装置1に入力画像を入力するため、或いは、検査装置1から外部装置(例えば、ディスプレイ)に検査結果を出力するために利用される。また、この通信インタフェースは、例えば、外部装置(例えば、カメラに接続された他のコンピュータ)から提供された入力画像を検査装置1が受信するため、或いは、外部装置(例えば、ディスプレイに接続された他のコンピュータ)に提供する検査結果を検査装置1が送信するために利用される。 As shown in FIG. 1, the inspection device 1 includes a memory 11, a processor 12, and a storage 13. The memory 11, the processor 12, and the storage 13 are connected to each other via a bus (not shown). This bus may further be connected to an input/output interface (not shown) and a communication interface (not shown). This input/output interface is used, for example, to input an input image from an external device (e.g., a camera) to the inspection device 1, or to output inspection results from the inspection device 1 to an external device (e.g., a display). In addition, this communication interface is used, for example, for the inspection device 1 to receive an input image provided from an external device (e.g., another computer connected to a camera), or for the inspection device 1 to transmit inspection results to be provided to an external device (e.g., another computer connected to a display).

メモリ11は、後述する検査方法S1を実施するための検査プログラムPと、後述する検査方法S1で利用される学習済モデルMとを記録するための構成である。なお、メモリ11としては、例えば、半導体RAM(Random Access Memory)等を用いることができる。また、学習済モデルMとしては、例えば、CNN(Convolutional Neural Network)を用いることができる。また、ロジスティック回帰モデル、サポートベクトルマシン、ランダムフォレストなどを、学習済モデルMとして用いてもよい。 The memory 11 is configured to record an inspection program P for implementing an inspection method S1 described later, and a trained model M used in the inspection method S1 described later. Note that, for example, a semiconductor random access memory (RAM) or the like can be used as the memory 11. Furthermore, for example, a convolutional neural network (CNN) can be used as the trained model M. Furthermore, a logistic regression model, a support vector machine, a random forest, or the like may also be used as the trained model M.

プロセッサ12は、メモリ11に記憶された検査プログラムPに従って、後述する検査方法S1を実行するための構成である。プロセッサ12としては、例えば、CPU(Central Processing Unit)、GPU(Graphic Processing Unit)、マイクロプロセッサ、デジタルシグナルプロセッサ、マイクロコントローラ、TPU(Tensor Processing Unit)等のASIC(Application Specific Integrated Circuit)又は、これらの組み合わせ等を用いることができる。 The processor 12 is configured to execute the inspection method S1 described below in accordance with the inspection program P stored in the memory 11. The processor 12 may be, for example, a CPU (Central Processing Unit), a GPU (Graphic Processing Unit), a microprocessor, a digital signal processor, a microcontroller, an ASIC (Application Specific Integrated Circuit) such as a TPU (Tensor Processing Unit), or a combination of these.

ストレージ13は、上述した検査プログラムPと上述した学習済モデルMとを格納(不揮発保存)するための構成である。プロセッサ12は、後述する検査方法S1を実行する際に、ストレージ13に格納された検査プログラムP及び学習済モデルMをメモリ11上に展開して参照する。なお、ストレージ13としては、例えば、フラッシュメモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又は、これらの組み合わせ等を用いることができる。 The storage 13 is configured to store (non-volatilely store) the above-mentioned inspection program P and the above-mentioned trained model M. When executing the inspection method S1 described below, the processor 12 expands the inspection program P and trained model M stored in the storage 13 onto the memory 11 and references them. Note that the storage 13 may be, for example, a flash memory, a hard disk drive (HDD), a solid state drive (SSD), or a combination of these.

なお、本明細書において、「画像」とは、画素値の2次元配列のことを指す。モノクロ画像における画素値は、例えば、輝度に対応する1つの数値であり、カラー画像における画素値は、例えば、RGB、CMY、YUV等のフォーマットに対応した3つ又は4つの数値である。また、後述する「注目領域」など、入力画像における一領域も、画素値の2次元配列であり、画像と見做すことができる。 In this specification, "image" refers to a two-dimensional array of pixel values. A pixel value in a monochrome image is, for example, a single numerical value corresponding to brightness, and a pixel value in a color image is, for example, three or four numerical values corresponding to a format such as RGB, CMY, YUV, etc. Also, an area in an input image, such as the "area of interest" described below, is also a two-dimensional array of pixel values and can be considered an image.

また、検査装置1が行う検査は、正常及び異常の種類を識別しない二値判定であってもよいし、正常及び/又は異常の種類を識別する多値判定であってもよい。二値判定の場合、検査結果は、2個のクラス(正常、異常)の何れかであり、例えば、ブーリアン型の数値によって表現される。この場合、正常である確率及び異常である確率の一方又は両方を表す実数型の数値又はその組み合わせを判定結果としてもよい。多値判定の場合、N種類の正常及びM種類の異常が識別可能であるとすると、検査結果は、N+M個のクラス(正常1、正常2、…、正常M、異常1、異常2、…、異常M)の何れかであり、例えば、整数型の数値によって表現することができる。この場合、正常1である確率、正常2である確率、…、正常Nである確率、異常1である確率、異常2である確率、…、及び異常Mである確率の一部又は全部を表す実数型の数値又はその組み合わせを判定結果としてもよい。ここで、N及びMのうち、一方は、1以上の自然数であり、他方は、2以上の自然数である。更に、検査結果に、「判定保留」など、正常でも異常でもないもの(又はその確率)が含まれていてもよい。 The inspection performed by the inspection device 1 may be a binary judgment that does not distinguish between the types of normality and abnormality, or a multi-value judgment that distinguishes between the types of normality and abnormality. In the case of a binary judgment, the inspection result is one of two classes (normal, abnormal) and is expressed, for example, by a Boolean type numerical value. In this case, the judgment result may be a real number type numerical value or a combination thereof that represents one or both of the probability of normality and the probability of abnormality. In the case of a multi-value judgment, if N types of normality and M types of abnormality can be distinguished, the inspection result is one of N+M classes (normal 1, normal 2, ..., normal M, abnormal 1, abnormal 2, ..., abnormal M), and can be expressed, for example, by an integer type numerical value. In this case, the judgment result may be a real number type numerical value or a combination thereof that represents some or all of the probability of normality 1, the probability of normality 2, ..., the probability of normality N, the probability of abnormality 1, the probability of abnormality 2, ..., and the probability of abnormality M. Here, one of N and M is a natural number of 1 or more, and the other is a natural number of 2 or more. Furthermore, the test results may include results that are neither normal nor abnormal (or the probability of them being so), such as "pending judgment."

なお、ここでは、検査方法S1を単一のコンピュータに設けられた単一のプロセッサ12が実行する構成について説明したが、これに限定されない。すなわち、検査方法S1を単一のコンピュータに設けられた、或いは、複数のコンピュータに分散して設けられた複数のプロセッサが共同して実行する構成を採用することも可能である。 Note that, although the configuration in which inspection method S1 is executed by a single processor 12 provided in a single computer has been described here, the present invention is not limited to this. In other words, it is also possible to adopt a configuration in which inspection method S1 is executed jointly by multiple processors provided in a single computer, or distributed across multiple computers.

また、ここでは、学習済モデルMを単一のコンピュータに設けられた単一のメモリ11に記憶させる構成について説明したが、これに限定されない。すなわち、学習済モデルMを単一のコンピュータに設けられた、或いは、複数のコンピュータに分散して設けられた複数のメモリに分散して記憶させる構成を採用することも可能である。 In addition, although a configuration in which the trained model M is stored in a single memory 11 provided in a single computer has been described here, the present invention is not limited to this. In other words, it is also possible to adopt a configuration in which the trained model M is stored in a single computer or in multiple memories provided in a distributed manner in multiple computers.

なお、プロセッサ12に検査方法S1を実行させるための検査プログラムPは、コンピュータ読み取り可能な一時的でない有形の記録媒体に記録され得る。この記録媒体は、メモリ11であってもよいし、ストレージ13であってもよいし、その他の記録媒体であってもよい。例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路が、その他の記録媒体として利用可能である。 The inspection program P for causing the processor 12 to execute the inspection method S1 may be recorded on a computer-readable, non-transitory, tangible recording medium. This recording medium may be the memory 11, the storage 13, or another recording medium. For example, a tape, a disk, a card, a semiconductor memory, or a programmable logic circuit may be used as the other recording medium.

(検査方法の流れ)
検査装置1が実施する検査方法S1の流れについて、図2を参照して説明する。図2は、検査方法S1の流れを示すフロー図である。
(Testing method flow)
The flow of the inspection method S1 performed by the inspection device 1 will be described with reference to Fig. 2. Fig. 2 is a flow chart showing the flow of the inspection method S1.

検査方法S1は、図2に示すように、特定処理S11と、生成処理S12と、検査処理S13と、を含んでいる。なお、以下の説明においては、複数の対象物O1,O2,…,Onを被写体として含む入力画像Imgが検査装置1のメモリ11に格納されているものとする。 As shown in FIG. 2, the inspection method S1 includes a specification process S11, a generation process S12, and an inspection process S13. In the following description, it is assumed that an input image Img containing multiple objects O1, O2, ..., On as subjects is stored in the memory 11 of the inspection device 1.

特定処理S11は、入力画像Imgにおいて、それぞれが単一の対象物Oi(i=1,2,…,n)を包含する複数の注目領域A1,A2,…,Anを特定するための処理である。注目領域Aiは、入力画像Imgにおいて対応する対象物Oiを包含する領域であり、(1)対応する対象物Oiの像が注目領域Aiの外部と共通部分を持たないように、且つ、(2)それ以外の対象物Oj(j≠i)の像が注目領域Aiの内部と共通部分を持たないように設定されていることが好ましい。本実施形態において、特定処理S11は、検査装置1が備えるプロセッサ12によって実行される。 The identification process S11 is a process for identifying multiple attention areas A1, A2, ..., An in the input image Img, each of which contains a single object Oi (i = 1, 2, ..., n). The attention area Ai is an area in the input image Img that contains the corresponding object Oi, and is preferably set so that (1) the image of the corresponding object Oi does not have any common parts with the outside of the attention area Ai, and (2) the images of other objects Oj (j ≠ i) do not have any common parts with the inside of the attention area Ai. In this embodiment, the identification process S11 is executed by the processor 12 provided in the inspection device 1.

生成処理S12は、特定処理S11にて特定した各注目領域Aiについて、その注目領域Aiを含む画像Imgiを生成するための処理である。本実施形態において、生成処理S12は、検査装置1が備えるプロセッサ12によって実行される。 The generation process S12 is a process for generating an image Imgi including each attention area Ai identified in the identification process S11. In this embodiment, the generation process S12 is executed by the processor 12 provided in the inspection device 1.

検査処理S13は、生成処理S12にて生成した各画像Imgiに基づいて、その画像Imgiに被写体として含まれる対象物Oiの画像検査を行うための処理である。本実施形態において、検査処理S13は、検査装置1が備えるプロセッサ12によって、学習済モデルMを用いて実行される。 The inspection process S13 is a process for performing image inspection of an object Oi contained as a subject in each image Imgi generated in the generation process S12, based on that image Imgi. In this embodiment, the inspection process S13 is executed by the processor 12 provided in the inspection device 1 using the trained model M.

学習済モデルMは、対象物を被写体として含む画像を入力とし、その対象物が属するクラスを出力するモデルである。学習済モデルMは、例えば、対象物(属するクラスが既知の対象物)を被写体として含む画像とその対象物が属するクラスとの組を教師データとする機械学習によって構築される。 The trained model M is a model that takes an image containing an object as a subject as input and outputs the class to which the object belongs. The trained model M is constructed, for example, by machine learning using pairs of images containing an object (an object whose class is known) as a subject and the class to which the object belongs as training data.

(特定処理の具体例)
検査方法S1に含まれる特定処理S11の具体例について、図3を参照して説明する。図3は、本具体例に係る特定処理S11の流れを示すフロー図である。
(Specific examples of specific processing)
A specific example of the specific process S11 included in the inspection method S1 will be described with reference to Fig. 3. Fig. 3 is a flow chart showing the flow of the specific process S11 according to this specific example.

対象物Oiの状態、又は、入力画像Imgにおける対象物Oiの像の状態によっては、テンプレートマッチングを用いてその対象物Oiを包含する注目領域Aiを特定することが困難になる場合がある。本具体例に係る特定処理S11は、このような場合であっても、入力画像Imgに被写体として含まれる全ての対象物O1,O2,…,Onについて、対象物Oiを包含する注目領域Aiを特定することができるように工夫したものである。以下、説明の便宜上、n-m個の対象物O1,O2,…On-mを、テンプレートマッチングにより注目領域を特定することが可能な対象物とし、m個の対象物On-m+1,On-m+2,…,Onを、テンプレートマッチングにより注目領域を特定することが不可能な対象物とする。ここで、mは、1以上n-2以下の自然数であり、テンプレートマッチングにより注目領域を特定することが不可能な対象物の個数を表す。 Depending on the state of the object Oi or the state of the image of the object Oi in the input image Img, it may be difficult to identify the attention area Ai containing the object Oi using template matching. The identification process S11 according to this specific example is devised so that even in such a case, it is possible to identify the attention area Ai containing the object Oi for all objects O1, O2, ..., On included as subjects in the input image Img. For the sake of convenience, n-m objects O1, O2, ..., On-m are defined as objects whose attention area can be identified by template matching, and m objects On-m+1, On-m+2, ..., On are defined as objects whose attention area cannot be identified by template matching. Here, m is a natural number between 1 and n-2, and represents the number of objects whose attention area cannot be identified by template matching.

本具体例に係る特定処理S11は、図3に示すように、第1特定処理S111と、第2特定処理S112と、を含んでいる。 As shown in FIG. 3, the specific process S11 in this specific example includes a first specific process S111 and a second specific process S112.

第1特定処理S111は、入力画像Imgにおいて、それぞれが単一の対象物Oj(j=1,2,…,n-m)を包含するn-m個の注目領域A1,A2,…,An-mを、テンプレートマッチングを用いて特定するための処理である。第1特定処理S111にて特定される各注目領域Ajは、入力画像Imgにおいて対象物Ojを包含する領域となる。本実施形態において、第1特定処理S111は、検査装置1が備えるプロセッサ12によって実行される。 The first identification process S111 is a process for identifying nm-m regions of interest A1, A2, ..., An-m, each of which contains a single object Oj (j = 1, 2, ..., nm) in the input image Img, using template matching. Each region of interest Aj identified in the first identification process S111 is an area in the input image Img that contains the object Oj. In this embodiment, the first identification process S111 is executed by the processor 12 provided in the inspection device 1.

第2特定処理S112は、入力画像Imgにおいて、第1特定処理S111にて特定した注目領域A1,A2,…,An-mとは異なるm個の注目領域An-m+1,An-m+2,…,Anを、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mの周期性を用いて特定するための処理である。入力画像Imgにおいて対象物O1,O2,…,Onが周期的に配置されている場合、第2特定処理S112にて特定される各注目領域Akは、第1特定処理S111にて特定される注目領域Ajと同様、入力画像Imgにおいて対応する対象物Okを包含する領域となる。本実施形態において、第2特定処理S112は、検査装置1が備えるプロセッサ12によって実行される。 The second identification process S112 is a process for identifying m areas of interest An-m+1, An-m+2, ..., An in the input image Img that are different from the areas of interest A1, A2, ..., An-m identified in the first identification process S111, using the periodicity of the n-m areas of interest A1, A2, ..., An-m identified in the first identification process S111. When objects O1, O2, ..., On are periodically arranged in the input image Img, each area of interest Ak identified in the second identification process S112 is an area that includes the corresponding object Ok in the input image Img, similar to the area of interest Aj identified in the first identification process S111. In this embodiment, the second identification process S112 is executed by the processor 12 provided in the inspection device 1.

第2特定処理S112は、図3に示すように、第1算出処理S112aと、第2算出処理S112bと、により構成することができる。 The second identification process S112 can be composed of a first calculation process S112a and a second calculation process S112b, as shown in FIG. 3.

第1算出処理S112aは、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mのうち、画素行方向(特許請求の範囲における「第1の方向」の一例)に並んで隣接する2つの注目領域の代表点の間隔dx、及び、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mのうち、画素列方向(特許請求の範囲における「第2の方向」の一例)に並んで隣接する2つの注目領域の代表点の間隔dyを算出するための処理である。 The first calculation process S112a is a process for calculating the distance dx between the representative points of two adjacent attention areas aligned in the pixel row direction (an example of the "first direction" in the claims) among the nm-m attention areas A1, A2, ..., An-m identified in the first identification process S111, and the distance dy between the representative points of two adjacent attention areas aligned in the pixel column direction (an example of the "second direction" in the claims) among the nm-m attention areas A1, A2, ..., An-m identified in the first identification process S111.

第2算出処理S112bは、第1算出処理S112aにて算出された間隔dx,dyに基づいて、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mとは異なるm個の注目領域An-m+1,An-m+2,…,Anの代表点の座標を算出するための処理である。m個の注目領域An-m+1,An-m+2,…,Anは、代表点の座標が第2算出処理S112bにて算出された座標に一致する注目領域に設定される。 The second calculation process S112b is a process for calculating the coordinates of representative points of m attention areas An-m+1, An-m+2, ..., An that are different from the n-m attention areas A1, A2, ..., An-m identified in the first identification process S111, based on the intervals dx, dy calculated in the first calculation process S112a. The m attention areas An-m+1, An-m+2, ..., An are set as attention areas whose coordinates of representative points match the coordinates calculated in the second calculation process S112b.

図4は、本具体例に係る特定処理S11の実行例を示す図である。ここでは、図4の(a)に示すように、4つの対象物O1,O2,O3,O4を被写体として含む入力画像Imgを考える。3つの対象物O1,O2,O3は、テンプレートマッチングにより注目領域を特定することが可能な対象物であり、残り1つの対象物O4は、異物の付着等によりテンプレートマッチングにより注目領域を特定することが不可能な対象物である。 Figure 4 is a diagram showing an example of execution of the identification process S11 according to this specific example. Here, as shown in (a) of Figure 4, consider an input image Img that includes four objects O1, O2, O3, and O4 as subjects. The three objects O1, O2, and O3 are objects for which it is possible to identify the region of interest by template matching, while the remaining object O4 is an object for which it is impossible to identify the region of interest by template matching due to the presence of a foreign matter or the like.

第1特定処理S111においては、図4の(b)に示すように、3つの対象物O1,O2,O3をそれぞれ包含する3つの注目領域A1,A2,A3がテンプレートマッチングにより特定される。 In the first identification process S111, as shown in FIG. 4B, three attention areas A1, A2, and A3 that respectively include three objects O1, O2, and O3 are identified by template matching.

第2特定処理S112の第1算出処理S112aにおいては、図4の(c)に示すように、画素行方向に並んで隣接する2つの注目領域A1,A2の代表点P1,P2の間隔dxと、画素列方向に並んで隣接する2つの注目領域A1,A3の代表点P1,P3の間隔dyとが算出される。ここでは、各注目領域Aiを、画素行方向に平行な辺と画素列方向に平行な辺とを有する矩形領域とし、各注目領域Aiの代表点Piを、その矩形領域の左上隅の頂点とした。 In the first calculation process S112a of the second identification process S112, as shown in FIG. 4(c), the distance dx between the representative points P1, P2 of two adjacent attention areas A1, A2 aligned in the pixel row direction, and the distance dy between the representative points P1, P3 of two adjacent attention areas A1, A3 aligned in the pixel column direction are calculated. Here, each attention area Ai is defined as a rectangular area having a side parallel to the pixel row direction and a side parallel to the pixel column direction, and the representative point Pi of each attention area Ai is defined as the vertex of the upper left corner of the rectangular area.

第2特定処理S112の第2算出処理S112bにおいては、図4の(d)に示すように、第1算出処理S112aにて算出された間隔dx,dyに基づいて、残り1つの注目領域A4の代表点P4の座標が算出される。具体的には、注目領域A4の代表点P4のx座標(画素行方向の座標)が、注目領域A3の代表点P3の画素行方向の座標に間隔dxを加算することによって算出され、注目領域A4の代表点P4のy座標(画素列方向の座標)が、注目領域A2の代表点P2の画素列方向の座標に間隔dyを加算することによって算出される。そして、注目領域A4が、左上隅の頂点の座標が第2算出処理S112bにて算出された座標に一致する矩形領域に設定される。 In the second calculation process S112b of the second identification process S112, as shown in FIG. 4D, the coordinates of the representative point P4 of the remaining attention area A4 are calculated based on the intervals dx and dy calculated in the first calculation process S112a. Specifically, the x coordinate (coordinate in the pixel row direction) of the representative point P4 of the attention area A4 is calculated by adding the interval dx to the coordinate in the pixel row direction of the representative point P3 of the attention area A3, and the y coordinate (coordinate in the pixel column direction) of the representative point P4 of the attention area A4 is calculated by adding the interval dy to the coordinate in the pixel column direction of the representative point P2 of the attention area A2. Then, the attention area A4 is set to a rectangular area whose coordinates of the vertex of the upper left corner match the coordinates calculated in the second calculation process S112b.

(生成処理の具体例)
検査方法S1に含まれる生成処理S12の具体例について、図5を参照して説明する。図5は、本具体例に係る生成処理S12の流れを示すフロー図である。
(Specific example of generation process)
A specific example of the generation process S12 included in the inspection method S1 will be described with reference to Fig. 5. Fig. 5 is a flow diagram showing the flow of the generation process S12 according to this specific example.

本具体例に係る生成処理S12は、図5に示すように、切り出し処理S121と、埋め込み処理122と、を含んでいる。 As shown in FIG. 5, the generation process S12 in this specific example includes a cut-out process S121 and an embedding process S122.

切り出し処理S121は、特定処理S11にて特定した各注目領域Aiを入力画像Imgから切り出すための処理である。埋め込み処理S122は、切り出し処理S121にて切り出した各注目領域Aiを、予め定められたサイズの画像Imgiに無加工で埋め込むための処理である。ここで、注目領域Aiを「無加工で埋め込む」とは、拡大、縮小、回転などの画像処理を施すことなく、入力画像Imgから切り出した注目領域Aiをそのまま(全ての画素の画素値を変化させることなく)埋め込むことを指す。これにより、各注目領域Aiについて、予め定められたサイズの画像Imgiであって、その注目領域Aiが無加工で埋め込まれた画像Imgiが生成される。切り出し処理S121にて生成される画像Imgiにおいて、注目領域Aiが埋め込まれた部分以外の画素は、同一の画素値に設定される。これらの画素の画素値は、任意であり、例えば、黒に対応する画素値であってもよいし、白に対応する画素値であってもよい。 The cut-out process S121 is a process for cutting out each attention area Ai identified in the identification process S11 from the input image Img. The embedding process S122 is a process for embedding each attention area Ai cut out in the cut-out process S121 in an image Imgi of a predetermined size without processing. Here, "embedding without processing" the attention area Ai refers to embedding the attention area Ai cut out from the input image Img as it is (without changing the pixel values of all pixels) without performing image processing such as enlargement, reduction, and rotation. As a result, an image Imgi of a predetermined size is generated for each attention area Ai, in which the attention area Ai is embedded without processing. In the image Imgi generated in the cut-out process S121, pixels other than the part where the attention area Ai is embedded are set to the same pixel value. The pixel values of these pixels are arbitrary, and may be, for example, a pixel value corresponding to black or a pixel value corresponding to white.

図6は、本具体例に係る生成処理S12により生成される画像Imgiの具体例を示す図である。 Figure 6 shows a specific example of an image Imgi generated by generation process S12 in this specific example.

図6の(a)に示す画像Img1は、600画素×1200画素の画像である。注目領域A1は、入力画像Imgにおいて画素行方向に平行な辺と画素列方向に平行の辺とを有する長方形領域である。この注目領域A1が拡大されることも、縮小されることも、回転されることもなく、そのまま画像Img1に埋め込まれている。画像Img1において、注目領域A1が埋め込まれた部分以外の画素の画素値は、一律に黒を表す画素値に設定されている。 Image Img1 shown in FIG. 6(a) is an image of 600 pixels by 1200 pixels. Area of interest A1 is a rectangular area in the input image Img with sides parallel to the pixel row direction and sides parallel to the pixel column direction. This area of interest A1 is embedded as is in image Img1 without being enlarged, reduced, or rotated. In image Img1, the pixel values of pixels other than the part where area of interest A1 is embedded are uniformly set to a pixel value that represents black.

図6の(b)に示す画像Img2は、図6の(a)に示す画像Img1と同様、600画素×1200画素の画像である。注目領域A2は、入力画像Imgにおいて画素行方向に平行な辺と画素列方向に平行な辺とを有する長方形領域である。この注目領域A2は注目領域A1よりも小さいが、この注目領域A2が拡大されることも、縮小されることも、回転されることもなく、そのまま画像Img2に埋め込まれている。画像Img2において、注目領域A2が埋め込まれた部分以外の画素の画素値は、画像Img1と同様、一律に黒を表す画素値に設定されている。 Image Img2 shown in FIG. 6(b) is an image of 600 pixels by 1200 pixels, similar to image Img1 shown in FIG. 6(a). Area of interest A2 is a rectangular area in the input image Img with sides parallel to the pixel row direction and sides parallel to the pixel column direction. This area of interest A2 is smaller than area of interest A1, but this area of interest A2 is embedded in image Img2 as is, without being enlarged, reduced, or rotated. In image Img2, the pixel values of pixels other than the part where area of interest A2 is embedded are set uniformly to pixel values representing black, similar to image Img1.

図6の(c)に示す画像Img3は、図6の(a)に示す画像Img1及び図6の(b)に示す画像Img2と同様、600画素×1200画素の画像である。注目領域A3は、入力画像Imgにおいて画素行方向に非平行な辺と画素列方向に非平行な辺とを有する長方形領域である。この注目領域A3は傾いているが、この注目領域A3が拡大されることも、縮小されることも、回転されることもなく、そのまま画像Img3に埋め込まれている。画像Img3において、注目領域A3が埋め込まれた部分以外の画素の画素値は、画像Img1及び画像Img2と同様、一律に黒を表す画素値に設定されている。 Image Img3 shown in FIG. 6(c) is an image of 600 pixels by 1200 pixels, similar to image Img1 shown in FIG. 6(a) and image Img2 shown in FIG. 6(b). Area of interest A3 is a rectangular area in the input image Img that has sides that are non-parallel to the pixel row direction and sides that are non-parallel to the pixel column direction. This area of interest A3 is tilted, but it is embedded as is in image Img3 without being enlarged, reduced, or rotated. In image Img3, the pixel values of pixels other than the part where area of interest A3 is embedded are set uniformly to pixel values that represent black, similar to images Img1 and Img2.

(適用例)
本実施形態に係る検査装置1は、例えば、単一のウエハ上に形成された複数のレーザダイオードチップの検査に適用することができる。このようなウエハを撮像することにより得られた入力画像を、図7の(a)に示す。
(Examples of application)
The inspection apparatus 1 according to this embodiment can be applied to, for example, the inspection of a plurality of laser diode chips formed on a single wafer. An input image obtained by imaging such a wafer is shown in FIG. 7A.

テンプレートマッチングに用いるテンプレートは、レーザダイオードの全体にマッチするテンプレートであってもよいし、レーザダイオードの一部にマッチするテンプレートであってもよい。後者のテンプレートの例としては、例えば、レーザダイオードの上端及び下端にマッチするテンプレートや、レーザダイオードの右端及び左端にマッチするテンプレートなどが挙げられる。レーザダイオードの上端及び下端にマッチするテンプレートを用いたテンプレートマッチングにより検出された領域を、図7の(b)に示す。図7の(b)においては、テンプレートマッチングにより検出された領域を点線の矩形で囲んで示している。 The template used for template matching may be a template that matches the entire laser diode, or a template that matches a portion of the laser diode. Examples of the latter template include a template that matches the top and bottom ends of the laser diode, or a template that matches the right and left ends of the laser diode. The area detected by template matching using a template that matches the top and bottom ends of the laser diode is shown in FIG. 7(b). In FIG. 7(b), the area detected by template matching is shown surrounded by a dotted rectangle.

レーザダイオードの全体にマッチするテンプレートを用いた場合、テンプレートマッチングにより検出された領域を、そのまま注目領域として特定すればよい。一方、レーザダイオードの一部にマッチするテンプレートを用いた場合、テンプレートマッチングにより検出された領域から所定のアルゴリズムに従って導出される領域を、注目領域として特定すればよい。例えば、レーザダイオードの上端及び下端にマッチするテンプレートを用いた場合、テンプレートマッチングにより検出された領域のうち画素列方向に並んで隣接する2つの領域を渡る矩形領域を、注目領域として特定すればよい。このようにして特定された注目領域を、図7の(c)に示す。図7の(c)においては、このようにして特定された注目領域を実線の矩形で囲んで示している。 When a template that matches the entire laser diode is used, the area detected by template matching can be identified as the area of interest. On the other hand, when a template that matches part of the laser diode is used, the area derived from the area detected by template matching according to a specified algorithm can be identified as the area of interest. For example, when a template that matches the upper and lower ends of the laser diode is used, a rectangular area that spans two adjacent areas lined up in the pixel column direction among the areas detected by template matching can be identified as the area of interest. The area of interest identified in this way is shown in FIG. 7(c). In FIG. 7(c), the area of interest identified in this way is shown surrounded by a solid-line rectangle.

図7の(d)は、異物が付着しているウエハを撮像することにより得られた入力画像である。このような場合、異物が付着した領域に関して、テンプレートマッチングに失敗することがある。しかしながら、上述したように、注目領域を第1特定処理S111及び第2特定処理S112により二段階特定するようにすれば、異物が付着した領域において注目領域の設定に失敗する可能性を有意に低減することができる。 Figure 7(d) shows an input image obtained by imaging a wafer with foreign matter attached. In such a case, template matching may fail for the area where the foreign matter is attached. However, as described above, by identifying the area of interest in two stages by the first identification process S111 and the second identification process S112, the possibility of failing to set the area of interest in the area where the foreign matter is attached can be significantly reduced.

(検査装置の効果1)
以上のように、本実施形態に係る検査装置1は、第1特定処理S111と、第2特定処理S112と、検査処理S13とを実行するプロセッサ12を備えている。第1特定処理S111は、n個の対象物O1,O2,…,Onを被写体として含む入力画像Imgにおいて、それぞれが単一の対象物Oj(j=1,2,…,n-m)を包含するn-m個の注目領域A1,A2,…,An-mを特定する処理である。また、第2特定処理S112は、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mとは異なるm個の注目領域An-m+1,An-m+2,…,Anを、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-mの周期性に基づいて特定する処理である。検査処理S13は、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-m、及び、第2特定処理S112にて特定したm個の注目領域An-m+1,An-m+2,…,Anの各々に基づいて、注目領域Ai(i=1,2,…,n)に包含される対象物Oiの画像検査を行う処理である。
(Effect 1 of the inspection device)
As described above, the inspection device 1 according to the present embodiment includes a processor 12 that executes the first identification process S111, the second identification process S112, and the inspection process S13. The first identification process S111 is a process for identifying nm-m attention regions A1, A2, ..., An-m, each of which includes a single object Oj (j=1, 2, ..., nm) in an input image Img including n objects O1, O2, ..., On as subjects. The second identification process S112 is a process for identifying m attention regions An-m+1, An-m+2, ..., An that are different from the nm-m attention regions A1, A2, ..., An-m identified in the first identification process S111, based on the periodicity of the nm-m attention regions A1, A2, ..., An-m identified in the first identification process S111. The inspection process S13 is a process for performing image inspection of an object Oi contained in an area of interest Ai (i = 1, 2, ..., n) based on each of the nm areas of interest A1, A2, ..., An-m identified in the first identification process S111 and each of the m areas of interest An-m+1, An-m+2, ..., An identified in the second identification process S112.

上記の構成によれば、入力画像Imgにおいて対象物O1,O2,…,Onが周期的に配置されている場合、第1特定処理S111において対象物On-m+1,On-m+2,…,Onを包含する注目領域An-m+1,An-m+2,…,Anの特定に失敗しても、これらの対象物On-m+1,On-m+2,…,Onを包含する注目領域An-m+1,An-m+2,…,Anを、第2特定処理S112において特定することができる。したがって、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onを漏れなく検査することが可能な検査装置1を実現することができる。なお、上述した検査方法S1によっても、同様の効果が得られる。また、上述した検査プログラムPをコンピュータに実行させることによっても、同様の効果が得られる。 According to the above configuration, when objects O1, O2, ..., On are arranged periodically in the input image Img, even if the first identification process S111 fails to identify the attention areas An-m+1, An-m+2, ..., An that include the objects On-m+1, On-m+2, ..., On, the attention areas An-m+1, An-m+2, ..., An that include these objects On-m+1, On-m+2, ..., On can be identified in the second identification process S112. Therefore, it is possible to realize an inspection device 1 that can inspect all objects O1, O2, ..., On included as subjects in the input image Img without omission. The same effect can be obtained by the above-mentioned inspection method S1. The same effect can also be obtained by executing the above-mentioned inspection program P on a computer.

また、本実施形態に係る検査装置1において、プロセッサ12は、テンプレートマッチングを用いて第1特定処理S111を実行する。 In addition, in the inspection device 1 according to this embodiment, the processor 12 executes the first identification process S111 using template matching.

上記の構成によれば、第1特定処理S111において効率的に対象物O1,O2,…,On-mを包含する注目領域A1,A2,…,An-mを特定することが可能な検査装置1を実現することができる。 The above configuration makes it possible to realize an inspection device 1 that can efficiently identify areas of interest A1, A2, ..., An-m that contain objects O1, O2, ..., On-m in the first identification process S111.

また、本実施形態に係る検査装置1において、プロセッサ12は、第1特定処理S111にて特定したn-m個の注目領域A1,A2,…,An-m、及び、第2特定処理S112にて特定したm個の注目領域An-m+1,An-m+2,…,Anの各々を入力とし、入力された注目領域Aiに包含される対象物Oiが属するクラスを出力とする学習済モデルMを用いて、検査処理S13を実行する。 In addition, in the inspection device 1 according to this embodiment, the processor 12 executes the inspection process S13 using a trained model M that receives as input the nm regions of interest A1, A2, ..., An-m identified in the first identification process S111 and the m regions of interest An-m+1, An-m+2, ..., An identified in the second identification process S112, and outputs the class to which the object Oi contained in the input region of interest Ai belongs.

上記の構成によれば、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onをそれぞれ精度良く検査することが可能な検査装置1を実現することができる。 The above configuration makes it possible to realize an inspection device 1 that can accurately inspect each of the objects O1, O2, ..., On contained as subjects in the input image Img.

(検査装置の効果2)
以上のように、本実施形態に係る検査装置1は、特定処理S11と、生成処理S12と、検査処理S13と、を実行するプロセッサ12を備えている。特定処理S11は、n個の対象物O1,O2,…,Onを被写体として含む入力画像Imgにおいて、それぞれが単一の対象物Ojを包含するn個の注目領域A1,A2,…,Anを特定する処理である。生成処理S12は、特定処理S11にて特定したn個の注目領域A1,A2,…,Anの各々について、予め定められたサイズの画像Imgi(i=1,2,…,n)であって、注目領域Aiが無加工で埋め込まれた画像Imgiを生成する処理である。検査処理S13は、生成処理S12にて生成したn個の画像Img1,Img2,…,Imgnの各々に基づいて、画像Imgiに埋め込まれた注目領域Aiに包含される対象物Oiの画像検査を行う処理である。
(Effect of the inspection device 2)
As described above, the inspection device 1 according to the present embodiment includes a processor 12 that executes a specification process S11, a generation process S12, and an inspection process S13. The specification process S11 is a process of specifying n attention areas A1, A2, ..., An, each of which includes a single object Oj, in an input image Img including n objects O1, O2, ..., On as subjects. The generation process S12 is a process of generating an image Imgi (i = 1, 2, ..., n) of a predetermined size for each of the n attention areas A1, A2, ..., An specified in the specification process S11, in which the attention area Ai is embedded without processing. The inspection process S13 is a process of performing an image inspection of an object Oi included in the attention area Ai embedded in the image Imgi, based on each of the n images Img1, Img2, ..., Imgn generated in the generation process S12.

上記の構成によれば、検査処理S13において参照される画像Img1,Img2,…,Imgnのサイズが一律になる。また、上記の構成によれば、検査処理S13において参照される各画像Imgiに加工により劣化していない注目領域Aiが埋め込まれる。したがって、検査処理S13を特定のアルゴリズムに従って精度良く実行することが可能な検査装置1を実現することができる。上述した検査方法S1によっても、同様の効果が得られる。また、上述した検査プログラムPをコンピュータに実行させることによっても、同様の効果が得られる。 According to the above configuration, the images Img1, Img2, ..., Imgn referenced in the inspection process S13 have a uniform size. Furthermore, according to the above configuration, an area of interest Ai that has not been degraded by processing is embedded in each image Imgi referenced in the inspection process S13. Therefore, it is possible to realize an inspection device 1 that can execute the inspection process S13 with high accuracy according to a specific algorithm. The same effect can be obtained by the above-mentioned inspection method S1. Furthermore, the same effect can be obtained by having a computer execute the above-mentioned inspection program P.

また、本実施形態に係る検査装置1において、プロセッサ12は、テンプレートマッチングを用いて第1特定処理S111を実行する。 In addition, in the inspection device 1 according to this embodiment, the processor 12 executes the first identification process S111 using template matching.

上記の構成によれば、第1特定処理S111において効率的に対象物O1,O2,…,Onを包含する注目領域A1,A2,…,Anを特定することが可能な検査装置1を実現することができる。 The above configuration makes it possible to realize an inspection device 1 that can efficiently identify areas of interest A1, A2, ..., An that contain objects O1, O2, ..., On in the first identification process S111.

また、本実施形態に係る検査装置1において、プロセッサ12は、生成処理S12において、注目領域Aiが埋め込まれた部分以外の画素の画素値が同一である画像Imgiを生成する。 In addition, in the inspection device 1 according to this embodiment, in the generation process S12, the processor 12 generates an image Imgi in which the pixel values of pixels other than the portion in which the attention area Ai is embedded are the same.

上記の構成によれば、画像Imgiにおいて注目領域Aiが埋め込まれた部分以外の画素の画素値が検査結果に与える影響を小さくすることができる。したがって、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onをそれぞれ精度良く検査することが可能な検査装置1を実現することができる。 The above configuration can reduce the influence on the inspection results of the pixel values of pixels other than the part in which the attention area Ai is embedded in the image Imgi. Therefore, it is possible to realize an inspection device 1 that can accurately inspect each of the objects O1, O2, ..., On included as subjects in the input image Img.

また、本実施形態に係る検査装置1において、プロセッサ12は、生成処理S12にて生成した画像Img1,Img2,…,Imgnの各々を入力とし、入力された画像Imgiに埋め込まれた注目領域Aiに包含される対象物Oiが属するクラスを出力とする学習済モデルMを用いて、検査処理S13を実行する。 In addition, in the inspection device 1 according to this embodiment, the processor 12 executes the inspection process S13 using a trained model M that receives as input each of the images Img1, Img2, ..., Imgn generated in the generation process S12, and outputs the class to which the object Oi contained in the attention area Ai embedded in the input image Imgi belongs.

上記の構成によれば、入力画像Imgに被写体として含まれる対象物O1,O2,…,Onをそれぞれ精度良く検査することが可能な検査装置1を実現することができる。 The above configuration makes it possible to realize an inspection device 1 that can accurately inspect each of the objects O1, O2, ..., On contained as subjects in the input image Img.

(付記事項)
本発明は、上述した実施形態に限定されるものでなく、請求項に示した範囲で種々の変更が可能であり、上述した実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても、本発明の技術的範囲に含まれる。
(Additional Notes)
The present invention is not limited to the above-described embodiments, and various modifications are possible within the scope of the claims. Embodiments obtained by appropriately combining the technical means disclosed in the above-described embodiments are also included in the technical scope of the present invention.

1 検査装置
11 メモリ
12 プロセッサ
13 ストレージ
P 検査プログラム
M 学習済モデル
1 Inspection device 11 Memory 12 Processor 13 Storage P Inspection program M Trained model

Claims (6)

複数の対象物を被写体として含む入力画像において、それぞれが単一の対象物を包含する複数の注目領域を特定する第1特定処理と、
前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、
前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を実行する単一又は複数のプロセッサを備え
ている、
ことを特徴とする検査装置。
a first identification process for identifying a plurality of interest regions each including a single object in an input image including a plurality of objects as subjects;
a second identification process for identifying, in the input image, a single or multiple attention regions each including a single object, different from the attention regions identified in the first identification process, based on a periodicity of the multiple attention regions identified in the first identification process;
and an inspection process for performing an image inspection of an object included in each of the plurality of attention areas identified in the first identification process and the single or plurality of attention areas identified in the second identification process.
An inspection device characterized by:
前記プロセッサは、テンプレートマッチングを用いて、前記第1特定処理を実行する、
ことを特徴とする請求項1に記載の検査装置。
The processor executes the first identification process using template matching.
2. The inspection apparatus according to claim 1 .
前記プロセッサは、前記第2特定処理において、(1)前記第1特定処理にて特定した複数の注目領域のうち、第1の方向に並んで隣接する2つの注目領域の代表点の間隔、及び、前記第1特定処理にて特定した複数の注目領域のうち、前記第1の方向と交わる第2の方向に並んで隣接する2つの注目領域の代表点の間隔の一方又は両方を算出する第1算出処理と、(2)前記第1算出処理にて算出された間隔に基づいて、前記第1特定処理にて特定した注目領域とは異なる注目領域の代表点の座標を算出する第2算出処理と、を実行する、
ことを特徴とする請求項1又は2に記載の検査装置。
In the second identification process, the processor executes: (1) a first calculation process to calculate one or both of an interval between representative points of two adjacent attention areas aligned in a first direction among the multiple attention areas identified in the first identification process, and an interval between representative points of two adjacent attention areas aligned in a second direction intersecting the first direction among the multiple attention areas identified in the first identification process; and (2) a second calculation process to calculate, based on the interval calculated in the first calculation process, coordinates of a representative point of a attention area other than the attention area identified in the first identification process.
3. The inspection apparatus according to claim 1 or 2.
前記プロセッサは、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々を入力とし、入力された注目領域に包含される対象物が属するクラスを出力とする学習済モデルを用いて、前記検査処理を実行する、
ことを特徴とする請求項1~3の何れか一項に記載の検査装置。
The processor executes the inspection process using a trained model that receives as input each of the multiple regions of interest identified in the first identification process and the single or multiple regions of interest identified in the second identification process, and outputs a class to which an object included in the input region of interest belongs.
4. The inspection device according to claim 1, wherein the inspection device is a semiconductor laser.
単一又は複数のプロセッサが、複数の対象物を被写体として含む入力画像において、それぞれが単一の対象物を包含する複数の注目領域を特定する第1特定処理と、
前記プロセッサが、前記入力画像において、それぞれが単一の対象物を包含する単一又は複数の注目領域であって、前記第1特定処理にて特定した注目領域とは異なる注目領域を、前記第1特定処理にて特定した複数の注目領域の周期性に基づいて特定する第2特定処理と、
前記プロセッサが、前記第1特定処理にて特定した複数の注目領域、及び、前記第2特定処理にて特定した単一又は複数の注目領域の各々に基づいて、当該注目領域に包含される対象物の画像検査を行う検査処理と、を含んでいる、
ことを特徴とする検査方法。
A first identification process in which a single or multiple processors identify a plurality of interest regions each including a single object in an input image including a plurality of objects as subjects;
a second identification process in which the processor identifies, in the input image, a single or multiple attention regions, each of which includes a single object, different from the attention regions identified in the first identification process, based on a periodicity of the multiple attention regions identified in the first identification process;
and an inspection process in which the processor performs an image inspection of an object included in each of the plurality of attention regions identified in the first identification process and the single or plurality of attention regions identified in the second identification process.
13. An inspection method comprising:
コンピュータを請求項1~4の何れか一項に記載の検査装置として動作させるための検査プログラムであって、前記コンピュータが備えるプロセッサに前記各処理を実行させる検査プログラム。 An inspection program for causing a computer to operate as the inspection device according to any one of claims 1 to 4, the inspection program causing a processor included in the computer to execute each of the processes.
JP2020197398A 2020-11-27 2020-11-27 Inspection device, inspection method, and inspection program Active JP7471207B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020197398A JP7471207B2 (en) 2020-11-27 2020-11-27 Inspection device, inspection method, and inspection program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020197398A JP7471207B2 (en) 2020-11-27 2020-11-27 Inspection device, inspection method, and inspection program

Publications (2)

Publication Number Publication Date
JP2022085624A JP2022085624A (en) 2022-06-08
JP7471207B2 true JP7471207B2 (en) 2024-04-19

Family

ID=81892416

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020197398A Active JP7471207B2 (en) 2020-11-27 2020-11-27 Inspection device, inspection method, and inspection program

Country Status (1)

Country Link
JP (1) JP7471207B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005221287A (en) 2004-02-04 2005-08-18 Matsushita Electric Ind Co Ltd Method and apparatus for inspecting substrate
JP2009300230A (en) 2008-06-12 2009-12-24 Olympus Corp Device, method and program for performing alignment, and device, method, and program for making standard model
WO2020070156A1 (en) 2018-10-02 2020-04-09 Carl Zeiss Smt Gmbh Method of recording an image using a particle microscope

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005221287A (en) 2004-02-04 2005-08-18 Matsushita Electric Ind Co Ltd Method and apparatus for inspecting substrate
JP2009300230A (en) 2008-06-12 2009-12-24 Olympus Corp Device, method and program for performing alignment, and device, method, and program for making standard model
WO2020070156A1 (en) 2018-10-02 2020-04-09 Carl Zeiss Smt Gmbh Method of recording an image using a particle microscope

Also Published As

Publication number Publication date
JP2022085624A (en) 2022-06-08

Similar Documents

Publication Publication Date Title
JP2019109563A (en) Data generation device, data generation method, and data generation program
JP2018151748A (en) Image processing device, image processing method, template generation device, object recognition processing device, and program
KR102559021B1 (en) Apparatus and method for generating a defect image
US10713530B2 (en) Image processing apparatus, image processing method, and image processing program
US10261849B1 (en) Preventative remediation of services
JP7289658B2 (en) Classification device, classification method, classification program, and inspection device
US11429806B2 (en) Devices, systems, and methods for anomaly detection
JP2007535066A (en) Image processing apparatus and method
US11568323B2 (en) Electronic device and control method thereof
US11562479B2 (en) Inspection apparatus, inspection method, and non-volatile storage medium
JP7471207B2 (en) Inspection device, inspection method, and inspection program
JP2017162098A (en) Learning method, information processing device and learning program
JP6937782B2 (en) Image processing method and device
JP2020003879A (en) Information processing device, information processing method, watermark detection device, watermark detection method, and program
JP2022085625A (en) Inspection device, inspection method, and inspection program
CN115374517A (en) Testing method and device for wiring software, electronic equipment and storage medium
JP7414629B2 (en) Learning data processing device, learning device, learning data processing method, and program
JP2007199865A (en) Image processing algorithm evaluation apparatus, image processing algorithm creation apparatus, image inspection apparatus, method for evaluating image processing algorithm, method for creating image processing algorithm, and method for inspecting image
WO2021152855A1 (en) Deformation management device, deformation management method, and deformation management program
WO2020031423A1 (en) Object detection method, object detection device, and computer program
US20220335631A1 (en) Devices, systems, and methods for anomaly detection
JP2015103226A (en) Data calculation method, data calculation apparatus, and defect inspection apparatus
JP7391784B2 (en) Information processing device, information processing method and program
JP7322358B2 (en) Information processing program, information processing method, and information processing apparatus
WO2023008509A1 (en) Information processing program and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240409

R150 Certificate of patent or registration of utility model

Ref document number: 7471207

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150