JP4266920B2 - Classification apparatus and classification method - Google Patents

Classification apparatus and classification method Download PDF

Info

Publication number
JP4266920B2
JP4266920B2 JP2004351585A JP2004351585A JP4266920B2 JP 4266920 B2 JP4266920 B2 JP 4266920B2 JP 2004351585 A JP2004351585 A JP 2004351585A JP 2004351585 A JP2004351585 A JP 2004351585A JP 4266920 B2 JP4266920 B2 JP 4266920B2
Authority
JP
Japan
Prior art keywords
region
extraction
classification
teacher data
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004351585A
Other languages
Japanese (ja)
Other versions
JP2006163608A (en
Inventor
大和 神田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2004351585A priority Critical patent/JP4266920B2/en
Publication of JP2006163608A publication Critical patent/JP2006163608A/en
Application granted granted Critical
Publication of JP4266920B2 publication Critical patent/JP4266920B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、分類装置及び分類方法に関するものである。   The present invention relates to a classification device and a classification method.

従来より種々の分類装置が知られている。例えば特開平8−21803号公報には、画像内より分類対象となる欠陥領域を抽出し、その領域の面積、周囲長、フェレ径、円径度、重心座標等の特徴量を求め、予め、これら特徴量の入力パターンに対して所定の欠陥種を出力するように学習させたニューラルネットワークを用いて欠陥を分類する装置の構成が開示されている。   Conventionally, various classification devices are known. For example, in JP-A-8-21803, a defect area to be classified is extracted from an image, and feature quantities such as area, perimeter, ferret diameter, circularity, and barycentric coordinates of the area are obtained in advance. A configuration of an apparatus that classifies defects using a neural network that is trained to output a predetermined defect type with respect to an input pattern of these feature amounts is disclosed.

また、特開平11−344450号公報には、欠陥画像の色情報、形状、サイズ等を基に統計分類を行う分類装置の構成や、教示用データ(教師データ)の作成作業を支援する構成等が示されている。
特開平8−21803号公報 特開平11−344450号公報
Japanese Patent Application Laid-Open No. 11-344450 discloses a configuration of a classification device that performs statistical classification based on color information, shape, size, and the like of a defect image, a configuration that supports creation of teaching data (teacher data), and the like. It is shown.
JP-A-8-21803 JP 11-344450 A

上記した分類装置において、分類対象の領域の大きさ(面積、フェレ径、周囲長等)や形状(円径度、フェレ径比等)に関する特徴量を用いて分類を行う場合、対象領域の抽出が適切でない場合には算出される特徴量の値も適切でなくなり、正確な分類結果は得られない。教師データに関しても同様であり、適切な抽出の後に特徴量を算出して作成しなければ、以後の分類過程において性能の低下を招く要因となってしまう。   In the above classification device, when classification is performed using feature quantities related to the size (area, ferret diameter, circumference length, etc.) and shape (circularity degree, ferret diameter ratio, etc.) of the classification target area, the target area is extracted. If is not appropriate, the calculated feature value is not appropriate, and an accurate classification result cannot be obtained. The same applies to the teacher data. If the feature quantity is not calculated and created after appropriate extraction, it will cause a decrease in performance in the subsequent classification process.

例えば、図21(A)に示す分類対象領域に対して適切な抽出が行われた場合(図21(B))と、不適切な抽出が行われた場合(図21(C))とでは、算出される特徴量の値は大きく異なり、このような差を含んだ教師データ群を基に分類を行っても正確な分類はなされない。   For example, when appropriate extraction is performed on the classification target region shown in FIG. 21A (FIG. 21B) and when inappropriate extraction is performed (FIG. 21C). The calculated feature values vary greatly, and even if classification is performed based on a teacher data group including such a difference, accurate classification is not performed.

また、一方で、抽出の程度の変化に対する分類性能のロバスト性確保は重要である。多数の教師データが収集される場合には様々な抽出程度のデータが存在するため、抽出程度の変化に対するロバスト性も確保されやすい。しかしながら、教師データが少ない場合には困難である。このような課題に対し有効な解決策を示した分類装置は提案されていない。   On the other hand, it is important to ensure robustness of classification performance against changes in the degree of extraction. When a large amount of teacher data is collected, data with various degrees of extraction exists, and thus robustness against changes in the degree of extraction is easily ensured. However, it is difficult when there is little teacher data. A classification device that shows an effective solution to such a problem has not been proposed.

本発明はこのような課題に着目してなされたものであり、その目的とするところは、少ない教師サンプルを用いて抽出程度の変化に対する分類性能のロバスト性を確保することができる分類装置及び分類方法を提供することにある。   The present invention has been made paying attention to such a problem, and the object of the present invention is to provide a classification apparatus and a classification that can ensure the robustness of the classification performance against a change in the degree of extraction using a small number of teacher samples. It is to provide a method.

上記の目的を達成するために、本発明の第1の態様に係る分類装置は、画像に複数の抽出パラメータを適用して複数の教師データを作成し、該複数の教師データを基に分類を行う分類装置であって、第1の抽出パラメータに基づいて、画像より第1の領域を抽出する第1領域抽出手段と、前記第1の領域が分類されるべき正解カテゴリを入力する操作手段と、前記第1の領域に対する特徴量を算出する第1特徴量算出手段と、前記第1の領域に対する特徴量と、前記正解カテゴリとを用いて、第1の教師データを作成する第1教師データ作成手段と、前記正解カテゴリが入力された領域に対し、前記第1の抽出パラメータとは異なる第2の抽出パラメータを設定する抽出パラメータ設定手段と、前記第2の抽出パラメータを基に、前記第1の抽出パラメータによる抽出処理の対象となった画像に含まれる第2の領域を抽出する第2域抽出手段と、前記第2の領域に対する特徴量を算出する第2特徴量算出手段と、前記第2の領域に対する特徴量に基づいて、前記第2の領域の抽出結果が妥当か否かを判断し、妥当であると判断されたときに、前記第2の領域に対する特徴量と、前記正解カテゴリとを用いて、第2の教師データを作成する第2教師データ作成手段と、前記第1の教師データと、前記第2の教師データとを含む複数の教師データを基に分類を行う分類手段と、を備える。 In order to achieve the above object, a classification device according to a first aspect of the present invention creates a plurality of teacher data by applying a plurality of extraction parameters to an image, and classifies the images based on the plurality of teacher data. a classification apparatus for performing, based on first extraction parameters, a first region extracting means for extracting a first region from the image, operation means for said first region to enter the correct category to be classified First teacher data for creating first teacher data using first feature value calculation means for calculating feature values for the first region, feature values for the first region, and the correct answer category Based on the second extraction parameter, the creation means, the extraction parameter setting means for setting the second extraction parameter different from the first extraction parameter for the region in which the correct answer category is input , 1 A second territory Iki抽 detecting means to extract the second area included in the image as a target of extraction performed by the parameter output, and the second feature quantity calculating means for calculating a feature value for said second region, Based on the feature amount for the second region, it is determined whether the extraction result of the second region is valid, and when it is determined to be valid, the feature amount for the second region, Classification is performed based on a plurality of teacher data including second teacher data creating means for creating second teacher data using the correct answer category , the first teacher data, and the second teacher data. Classification means.

また、本発明の第2の態様は、第1の態様において、前記第2の教師データ作成手段は、前記第2の領域に対する特徴量としての、前記第1、第2の領域の大きさ、形状のうち少なくとも一つの変化量を基に、前記第2の教師データを作成するか否かを判断する。 In addition, according to a second aspect of the present invention, in the first aspect, the second teacher data creating unit is configured such that the size of the first and second regions as a feature amount for the second region , Whether or not the second teacher data is to be created is determined based on at least one change amount of the shape.

また、本発明の第3の態様は、第1の態様において、前記第2の教師データ作成手段は、前記第2の領域に対する特徴量としての、前記第1、第2の領域の大きさ、形状のうち少なくとも一つの変化量を基に、前記第2の領域の抽出結果が妥当か否かを判断し、妥当であると判断されたときに、前記抽出パラメータ設定手段により新たな第2の抽出パラメータを設定してさらなる領域抽出を行うIn addition, according to a third aspect of the present invention, in the first aspect, the second teacher data creating unit is configured such that the size of the first and second regions as a feature amount for the second region , Based on at least one change amount of the shape, it is determined whether or not the extraction result of the second region is valid. When it is determined that the second region is valid, a new second parameter is set by the extraction parameter setting means. Set extraction parameters to perform further region extraction .

また、本発明の第4の態様は、第1〜第3のいずれか1つの態様において、前記第1、第2の領域の抽出形状識別可能表示する表示手段を更に備える。 The fourth aspect of the present invention, in the first to third any one aspect, further comprising a first display means for identifiably displaying the shape of the extraction of the second region.

また、本発明の第5の態様は、第1〜4のいずれか1つの態様において、前記分類装置は、特徴量空間内における分類対象領域のデータ近傍に位置する複数の教師データを基に分類を行う。 According to a fifth aspect of the present invention, in any one of the first to fourth aspects, the classification device performs classification based on a plurality of teacher data positioned in the vicinity of the data of the classification target region in the feature amount space. I do.

また、本発明の第6の態様は、第1〜のいずれか1つの態様において、前記分類装置は、特徴量空間内における同一カテゴリの教師データ分布を代表するデータと分類対象領域のデータとの距離を基に分類を行う。 According to a sixth aspect of the present invention, in any one of the first to fourth aspects, the classification device includes data representing the teacher data distribution of the same category in the feature amount space, data of the classification target region, Classification based on distance.

本発明によれば、少ない教師サンプルを用いて抽出程度の変化に対する分類性能のロバスト性を確保することが可能になる。   According to the present invention, it is possible to ensure robustness of classification performance against changes in the degree of extraction using a small number of teacher samples.

以下、図面を参照して本発明の実施形態を詳細に説明する。ここでは本発明の実施形態として、半導体ウェハを対象とした欠陥分類装置について説明する。しかしながら、本発明は、画像内の分類対象(例えば細胞)を抽出してその領域の特徴を基に分類を行う他の分類装置にも適用可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. Here, a defect classification apparatus for a semiconductor wafer will be described as an embodiment of the present invention. However, the present invention is also applicable to other classification devices that extract classification objects (for example, cells) in an image and perform classification based on the characteristics of the region.

図1は、本発明の一実施形態に係る欠陥分類装置の構成を示す図であり、検査画像より分類対象となる欠陥領域を抽出する欠陥領域抽出手段101と、抽出結果を表示する表示手段102と、抽出された領域に対する特徴量を算出する特徴量算出手段103と、抽出領域を選択して正解カテゴリを入力するための操作手段104と、教師データを作成する教師データ作成手段105と、教師データを蓄積する教師データ蓄積手段106と、抽出領域を分類する分類手段107と、抽出の程度を変更するための抽出パラメータ設定手段108とから構成され、操作手段104により正解カテゴリを入力された領域に対し、抽出パラメータ設定手段108により抽出の程度を変更しながら、抽出の程度が異なる複数の教師データを作成するものである。   FIG. 1 is a diagram showing a configuration of a defect classification apparatus according to an embodiment of the present invention, in which a defect area extraction unit 101 that extracts a defect area to be classified from an inspection image and a display unit 102 that displays an extraction result. A feature amount calculation unit 103 that calculates a feature amount with respect to the extracted region, an operation unit 104 that selects an extraction region and inputs a correct category, a teacher data generation unit 105 that generates teacher data, a teacher An area in which a correct category is input by the operation means 104, which includes a teacher data storage means 106 for storing data, a classification means 107 for classifying an extraction area, and an extraction parameter setting means 108 for changing the degree of extraction. In contrast, the extraction parameter setting means 108 creates a plurality of teacher data with different degrees of extraction while changing the degree of extraction. That.

なお、検査画像の取得に関する構成に関しては、本発明では特に限定しないため図示しない。また、取得した画像データの保持や各処理に用いられるメモリに関しても特に図示しない。   The configuration related to the acquisition of the inspection image is not particularly limited in the present invention and is not shown. Also, the memory used for holding the acquired image data and each process is not particularly shown.

本欠陥分類装置の処理には、教師データ登録過程と分類過程の2つの処理の流れがある。まず、図2及び図3を参照して、教師データ登録過程の処理の流れを説明する。最初に、ここでは、図示されない撮像系を用いて、教師データ作成用の欠陥(教師サンプル)の画像を取得する(ステップS11)。次に、欠陥領域抽出手段101は、取得した検査画像から欠陥領域を抽出する(ステップS12)。   The processing of this defect classification apparatus has two processing flows: a teacher data registration process and a classification process. First, with reference to FIG. 2 and FIG. 3, the process flow of the teacher data registration process will be described. First, an image of a defect (teacher sample) for creating teacher data is acquired using an imaging system (not shown) (step S11). Next, the defect area extraction unit 101 extracts a defect area from the acquired inspection image (step S12).

欠陥領域抽出の方法としてここでは2通りの方法を示す。第1の方法では、検査画像133(図4の(A))に対して良品レベルの輝度範囲となる閾値を設定し、この閾値を逸脱する輝度を持つ画素の領域を欠陥抽出画像140として抽出する(図4の(B))。ここで、良品レベルの輝度範囲を示す閾値は、予め設定しておいても良いし、画像内の輝度分布を基に適応的に決定しても良い。また、画像内の位置に応じて変化させても良いし、画像内で共通であっても良い(東京大学出版会:画像解析ハンドブック:高木幹夫、下田陽久、監修:502P、2値化、を参照)。   Here, two methods are shown as the method for extracting the defect area. In the first method, a threshold value that is a non-defective level luminance range is set for the inspection image 133 (FIG. 4A), and a pixel region having a luminance that deviates from this threshold value is extracted as the defect extraction image 140. (B in FIG. 4). Here, the threshold value indicating the non-defective level luminance range may be set in advance, or may be adaptively determined based on the luminance distribution in the image. Moreover, it may be changed according to the position in the image, or may be common in the image (The University of Tokyo Press: Image Analysis Handbook: Mikio Takagi, Yoshihisa Shimoda, Supervision: 502P, binarization, reference).

第2の方法では、図5の(B)に示すような良品ウェハ画像134(または良品となる一定区画の画像)を保持しておき、この画像と、図5の(A)に示すような検査画像133(または処理対象画像内の対応区画)を位置合わせし、重なり合う画素間の輝度差を求めて差分画像135(図5の(C))を作成し、この差分画像135を用いて上記第1の方法と同様の閾値処理により欠陥領域を抽出する。なお、領域の抽出方法は、分類の対象に応じて変更されるものであり、本発明の内容を限定するものではない。   In the second method, a non-defective wafer image 134 (or an image of a fixed section that is non-defective) as shown in FIG. 5B is held, and this image and the image shown in FIG. The inspection image 133 (or the corresponding section in the processing target image) is aligned, a luminance difference between overlapping pixels is obtained, and a difference image 135 ((C) in FIG. 5) is created. A defective area is extracted by threshold processing similar to the first method. Note that the region extraction method is changed according to the classification target, and does not limit the contents of the present invention.

また、半導体ウェハ等では、下地パターンやダイシングラインなどの影響により、領域抽出時に同一の欠陥が分割されて抽出される場合がある。よって必要に応じて、更にモルフォロジー処理((参考):コロナ社:モルフォロジー:小畑秀文著)などを用いて領域を連結する処理を行っても良い。   Further, in the case of a semiconductor wafer or the like, the same defect may be divided and extracted at the time of region extraction due to the influence of the ground pattern or dicing line. Therefore, if necessary, processing for connecting regions may be performed using morphological processing ((Reference): Corona: Morphology: Hidefumi Obata).

図6の(A),(B)は、モルフォロジー処理(closing処理)を用いた領域連結処理の一例を示している。図6の(A)に示される連続解像不良150やムラ151は領域連結処理によりそれぞれ連結欠陥領域150−1,151−1(図6(B))となる。   6A and 6B show an example of region connection processing using morphological processing (closing processing). The continuous resolution failure 150 and the unevenness 151 shown in FIG. 6A become connection defect regions 150-1 and 151-1 (FIG. 6B) by the region connection processing, respectively.

欠陥領域が抽出された後は、領域の抽出形状が視覚的に速やかに識別可能となるように、表示手段102を用いて表示する(ステップS13)。表示の方法としては、抽出領域を検査画像に重ねて表示したり、抽出した領域の輪郭を検査画像に重ねて表示する等が考えられる。   After the defective area is extracted, it is displayed using the display means 102 so that the extracted shape of the area can be visually identified quickly (step S13). As a display method, it is conceivable to display the extracted region so as to be superimposed on the inspection image, or to display the outline of the extracted region so as to be superimposed on the inspection image.

図8は、図7に示す検査画像160に対する抽出結果を、抽出領域形状の重ね合わせにより表示した様子を示す図である。図7の検査画像160に存在する欠陥1〜6の抽出結果はそれぞれ領域1〜6の形状として示されている。また、図9は、図7に示す検査画像160に対する抽出結果を、抽出領域の外形線の重ね合わせにより表示した様子を示す図である。外形線の形状により抽出結果が示されている。なお、表示の際には、重なり部分の詳細が容易に確認できるよう、簡単な操作で、もとの検査画像と切り替えて表示できるようにする。また形状の詳細を容易に確認できるよう表示スケールも可変とする。   FIG. 8 is a diagram illustrating a state in which the extraction result for the inspection image 160 illustrated in FIG. 7 is displayed by overlapping the extracted region shapes. The extraction results of the defects 1 to 6 existing in the inspection image 160 of FIG. 7 are shown as the shapes of the regions 1 to 6, respectively. FIG. 9 is a diagram illustrating a state in which the extraction result for the inspection image 160 illustrated in FIG. 7 is displayed by superimposing the outlines of the extraction regions. The extraction result is shown by the shape of the outline. It should be noted that the display can be switched to the original inspection image with a simple operation so that the details of the overlapping portion can be easily confirmed. The display scale is also variable so that the details of the shape can be easily confirmed.

ここで、ユーザーは操作手段104を操作して、例えばポインタにより指示することにより抽出結果が良好な領域を選択して、その領域の正解カテゴリを入力する(ステップS14)。図10は、領域の選択と正解カテゴリの入力の様子を示している。つまり、ポインタ170により領域1が選択されるとともに、正解カテゴリとして欠陥種Aが入力される様子や、ポインタ170により領域5が選択されるとともに、正解カテゴリとして欠陥種Bが入力される様子を示している。   Here, the user operates the operating means 104 to select a region with a good extraction result by, for example, pointing with a pointer, and inputs the correct category of that region (step S14). FIG. 10 shows how a region is selected and a correct category is input. That is, a state in which the region 1 is selected by the pointer 170 and the defect type A is input as the correct category, and a region 5 is selected by the pointer 170 and the defect type B is input as the correct category is shown. ing.

次に、特徴量算出手段103において、正解カテゴリが入力された領域に対する特徴量を算出する(ステップS15)。特徴量に関しては、一般的に領域単体での大きさ、形状、位置、濃度情報に関するものに加え、幾つかの領域による配置構成に関するもの等がある。マクロ検査における特徴量に関しては、本発明人による特開2003−168114号公報に開示されているが、特徴量の算出方法は分類の対象に応じて変更されるものであり、本発明の内容を限定するものではない。   Next, the feature amount calculation means 103 calculates the feature amount for the region where the correct answer category is input (step S15). Regarding the feature amount, in general, in addition to the size, shape, position, and density information of a single region, the feature amount relates to an arrangement configuration of several regions. The feature amount in the macro inspection is disclosed in Japanese Patent Laid-Open No. 2003-168114 by the present inventor. However, the feature amount calculation method is changed according to the classification target, and the contents of the present invention are It is not limited.

特徴量が算出された後は、教師データ作成手段105において教師データを作成する(ステップS16)。ここでの教師データとは、特徴量算出手段103で算出された特徴量情報と、操作手段104を用いて入力された対象領域の正解カテゴリの情報をセットにしたものであり、図11は教師データ(複数)の一例を示している。   After the feature amount is calculated, teacher data is created by the teacher data creation means 105 (step S16). The teacher data here is a set of feature amount information calculated by the feature amount calculation unit 103 and correct category information of the target region input using the operation unit 104. FIG. An example of data (plurality) is shown.

ステップS16で教師データの作成が行われた後、抽出パラメータ設定手段108において、欠陥領域の抽出のパラメータを、元のパラメータより過剰抽出側に変化させて設定する(ステップS41)。   After the teacher data is created in step S16, the extraction parameter setting unit 108 sets the defect area extraction parameter by changing it from the original parameter to the excessive extraction side (step S41).

その後、設定されたパラメータに従い、欠陥領域抽出手段101において、対象領域付近を再抽出する(ステップS42)。再抽出する範囲は、対象領域の外接矩形座標やフェレ径を元に決定する方法や、露光区画を考慮して決定する方法などがある。   Thereafter, according to the set parameters, the defect area extraction unit 101 re-extracts the vicinity of the target area (step S42). The range to be re-extracted includes a method of determining based on the circumscribed rectangular coordinates of the target region and the ferret diameter, and a method of determining in consideration of the exposure section.

図12は、フェレ径を用いた再抽出範囲決定の様子を示す図である。ここでは、抽出領域200の外接矩形201を求め、そのX方向の長さ(フェレ径X)と、Y方向の長さ(フェレ径Y)を各々2倍の長さとし、外接矩形と中心が同じ矩形を再抽出範囲202と決定している。   FIG. 12 is a diagram illustrating how the re-extraction range is determined using the ferret diameter. Here, the circumscribed rectangle 201 of the extraction region 200 is obtained, the length in the X direction (Ferret diameter X) and the length in the Y direction (Ferret diameter Y) are each doubled, and the center is the same as the circumscribed rectangle. The rectangle is determined as the re-extraction range 202.

図13は、露光区画を考慮した再抽出範囲決定の様子を示す図である。この場合は、ます目状の露光区画210において、抽出領域200が存在する露光区画の周囲1区画の範囲を再抽出範囲211と決定している。   FIG. 13 is a diagram illustrating how the re-extraction range is determined in consideration of the exposure section. In this case, the range of one section around the exposure section where the extraction area 200 exists in the increasingly square exposure section 210 is determined as the re-extraction range 211.

抽出後は、特徴量算出手段103において、再抽出した領域の特徴量を算出する(ステップS43)。これは図2のステップS15の処理と同様である。特徴量が算出された後は、教師データ作成手段105において、その特徴量を用いて、領域の再抽出の結果が妥当かを判断する(ステップS44)。   After the extraction, the feature amount calculation unit 103 calculates the feature amount of the re-extracted area (step S43). This is the same as the processing in step S15 in FIG. After the feature amount is calculated, the teacher data creation unit 105 determines whether the result of the region re-extraction is appropriate using the feature amount (step S44).

判断の方法としては抽出領域の大きさや形状を示す特徴量を利用する方法がある。例えば、抽出領域の形状が著しく変化する際には、面積や周囲長、フェレ径比の値もそれに応じて変化する。よって抽出パラメータ変更時の抽出領域の面積、周囲長、フェレ径比の変化量を確認し、この値が閾値以内であれば妥当であると判断する。あるいは再抽出状況を表示してユーザーに判断させても良い。   As a determination method, there is a method of using a feature amount indicating the size or shape of the extraction region. For example, when the shape of the extraction region changes significantly, the values of area, perimeter, and ferret diameter ratio also change accordingly. Therefore, the area of the extraction region, the perimeter, and the amount of change in the ferret diameter ratio when the extraction parameter is changed are confirmed. Alternatively, the re-extraction status may be displayed and the user may be judged.

抽出結果が妥当である場合(ステップS44の判断がYES)には、算出した特徴量を用いて教師データを作成する(ステップS45)。これは先に説明したステップS16での処理と同様である。教師データの作成後は、再度ステップS41に戻り、更に抽出パラメータを変更して以後の処理を繰り返す。   If the extraction result is valid (Yes in step S44), teacher data is created using the calculated feature amount (step S45). This is the same as the processing in step S16 described above. After the teacher data is created, the process returns to step S41 again, the extraction parameters are further changed, and the subsequent processing is repeated.

繰り返しの結果、抽出結果が妥当でなくなった場合(ステップS44の判断がNO)、今度は抽出のパラメータを、元のパラメータより不足抽出側に変化させて設定する(ステップS46)。これ以降のステップS47〜S50は、それぞれステップS42〜S45と同様の処理である。   If the extraction result is no longer valid as a result of repetition (NO in step S44), the extraction parameter is changed from the original parameter to the insufficient extraction side and set (step S46). Subsequent steps S47 to S50 are the same processes as steps S42 to S45, respectively.

以上の手順により1つの教師サンプルを用いて複数の教師データを作成した後は、それら教師データを、教師データ蓄積手段106に蓄積し(ステップS17)、教師データ登録過程を終了する。   After creating a plurality of teacher data using one teacher sample by the above procedure, the teacher data is stored in the teacher data storage means 106 (step S17), and the teacher data registration process is terminated.

図14は、抽出パラメータを、過剰抽出側、不足抽出側に変化させた際の抽出領域形状の変化を示す図である。抽出パラメータを過剰抽出側に変化させた場合、再抽出範囲220内の領域aは、b→c→dのように変化する。また、抽出パラメータを不足抽出側に変化させた場合、再抽出範囲220内の領域aは、e→f→gのように変化する。ここで、d、g以外は抽出が妥当であるとすると、教師サンプルの欠陥1つに対して、a、b、c、e、fの5つの抽出状況の異なる教師データを得ることになる。   FIG. 14 is a diagram illustrating changes in the shape of the extraction region when the extraction parameter is changed from the overextraction side to the underextraction side. When the extraction parameter is changed to the excessive extraction side, the region a in the re-extraction range 220 changes as b → c → d. Further, when the extraction parameter is changed to the insufficient extraction side, the region a in the re-extraction range 220 changes as e → f → g. Here, if extraction is appropriate except for d and g, teacher data having five different extraction statuses a, b, c, e, and f are obtained for one defect of the teacher sample.

以上の処理を必要に応じて繰り返すことにより、教師データ登録過程が終了する。   The teacher data registration process is completed by repeating the above processing as necessary.

なお、本説明では正解カテゴリの入力の後に特徴量の算出を行っているが、先に全ての領域の特徴量算出を行い、後に正解カテゴリが入力された領域のみの特徴量情報を用いて教師データを作成しても良い。また、抽出パラメータの変化量は、事前に静的に設定しても良いし、パラメータ変化により生じる抽出領域の大きさ、形状などの変化量を基に動的に設定しても良い。   In this description, the feature amount is calculated after the correct category is input. However, the feature amount is calculated for all the regions first, and the teacher uses the feature amount information only for the region where the correct category is input later. Data may be created. The change amount of the extraction parameter may be set statically in advance, or may be set dynamically based on the change amount of the size and shape of the extraction region caused by the parameter change.

次に、図15を参照して、分類過程の処理の流れを説明する。分類過程の処理のうち、画像の取得(ステップS21)、欠陥領域の抽出(ステップS22)、欠陥領域に対する特徴量の算出(ステップS23)は、撮像対象が検査用の被検体となるのみで、それぞれ前記した教師データ登録過程のステップS11、S12、S15と同様の処理である。但し、特徴量の算出は全ての抽出領域に対して行う。   Next, the flow of the classification process will be described with reference to FIG. Among the processes of the classification process, the image acquisition (step S21), the defect area extraction (step S22), and the feature amount calculation for the defect area (step S23) are performed only when the imaging target is an inspection object. The processing is the same as steps S11, S12, and S15 of the teacher data registration process described above. However, the feature amount is calculated for all the extraction regions.

ステップS23で各欠陥領域の特徴量を算出した後は、分類手段107において、算出した特徴量(分類対象領域データ)と事前に登録されている教師データの特徴量空間内における距離を基に分類を行う(ステップS24)。   After the feature amount of each defective area is calculated in step S23, the classification unit 107 classifies the calculated feature quantity (classification target region data) based on the distance in the feature amount space between the pre-registered teacher data. Is performed (step S24).

図16は、教師データを用いて分類を行う方法の1つであるk近傍法による分類の原理を説明するための図である。図16の○、△、□は、それぞれ欠陥種A、欠陥種B、欠陥種Cの教師データの特徴量空間内での位置を示している。これに対しPは分類対象の領域の特徴量空間内での位置である。   FIG. 16 is a diagram for explaining the principle of classification by the k-nearest neighbor method, which is one of methods for performing classification using teacher data. In FIG. 16, ◯, Δ, and □ indicate positions in the feature amount space of the teacher data of the defect type A, the defect type B, and the defect type C, respectively. On the other hand, P is the position in the feature amount space of the area to be classified.

k近傍法は、対象領域Pに最も近いk個(例では5個(事前設定)の教師データの中で最も多い欠陥種を対象領域の欠陥種とする方法である。例ではキズ3個>解像不良1個>ムラ1個で、キズが最も多いので対象領域=キズと判別する。この方法の場合、特徴空間(N次元)内での2点(xi:教師データ、xj:分類対象)間の距離計算が必要となるが、距離計算法として下記に挙げるもの等がある。

Figure 0004266920
The k-neighbor method is a method in which the largest defect type among the k (in the example, five (pre-set)) teacher data closest to the target region P is used as the defect type of the target region. In the example, three scratches> In this method, two points in the feature space (N dimension) (xi: teacher data, xj: classification target). ) Is required, but the distance calculation methods include the following.
Figure 0004266920

Figure 0004266920
Figure 0004266920

Figure 0004266920
Figure 0004266920

Figure 0004266920
Figure 0004266920

また、k近傍法以外の方法として、図17に示すように、各欠陥種毎の教師データ分布の代表点(例えば、分布全体の重心や分布をクラスタ分けした際のクラスタ重心など)との距離に基づいて分類する方法がある。この場合、代表点における特徴量l(エル)(1≦l(エル)≦N)の値μlを下記の式により算出し、上記の距離計算を行い、最も距離が近い欠陥種に分類する。

Figure 0004266920
As a method other than the k-nearest neighbor method, as shown in FIG. 17, the distance from the representative point of the teacher data distribution for each defect type (for example, the center of gravity of the entire distribution or the cluster center of gravity when the distribution is clustered). There is a method to classify based on. In this case, the value μl of the feature value l (el) (1 ≦ l (el) ≦ N) at the representative point is calculated by the following formula, and the above distance calculation is performed to classify the defect type with the closest distance.
Figure 0004266920

なお、上記のk近傍法、代表点距離比較法ともに、特徴量数(次元数)が増えるほど計算負荷が大きくなるため、事前に、教師データを主成分分析などして分類に必要な特徴量の算出法を決定し、これに基づく特徴量削減処理を行ってから距離計算を行っても良い。   Note that both the k-nearest neighbor method and the representative point distance comparison method increase the calculation load as the number of features (the number of dimensions) increases. It is also possible to calculate the distance after determining the calculation method of the above and performing the feature amount reduction processing based on the calculation method.

各欠陥領域を分類した後は、分類結果の情報を出力する(ステップS25)。   After classifying each defective area, information on the classification result is output (step S25).

図18は、図1で説明した欠陥分類装置の変形例を示す図である。この変形例は、基本的に図1の構成と同様であるが、図1の表示手段102に表示された画像内の任意の範囲に対して、欠陥領域の抽出の程度をユーザーがインタラクティブに変更可能となっている。   FIG. 18 is a diagram showing a modification of the defect classification apparatus described in FIG. This modification is basically the same as the configuration of FIG. 1, but the user interactively changes the degree of extraction of the defect area for an arbitrary range in the image displayed on the display unit 102 of FIG. It is possible.

図19は、本変形例に係る欠陥分類装置の処理の流れを説明するためのフローチャートである。図19は、図2での処理に追加される処理とその前後の処理に該当する部分のみを図示している。抽出領域形状が表示(ステップS13)された後、ユーザーは抽出の程度を確認し、再抽出が必要か否かを判断する(ステップS31)。   FIG. 19 is a flowchart for explaining the flow of processing of the defect classification apparatus according to this modification. FIG. 19 illustrates only the process corresponding to the process added to the process in FIG. 2 and the processes before and after the process. After the extraction area shape is displayed (step S13), the user checks the degree of extraction and determines whether re-extraction is necessary (step S31).

再抽出が必要な場合には、操作手段104を用いて、再抽出が必要な範囲と、抽出のためのパラメータ(2値化のための閾値など)を設定する(ステップS32)。当該範囲とパラメータが設定された後は、欠陥領域抽出手段101において、設定内容に基づいた欠陥領域の再抽出が行われる(ステップS33)。欠陥領域の再抽出後は、ステップS13に戻って、抽出領域形状を表示し、再度、ステップS31の判断を行う。   If re-extraction is necessary, the operation means 104 is used to set a range that requires re-extraction and extraction parameters (such as a threshold for binarization) (step S32). After the range and parameters are set, the defect area extraction unit 101 re-extracts the defect area based on the set content (step S33). After the re-extraction of the defective area, the process returns to step S13, the extracted area shape is displayed, and the determination in step S31 is performed again.

以上の流れによりインタラクティブに部分的な範囲の抽出の程度を最適化する。図20は、抽出の程度調整を行う画面の例を示しており、検査画像160に存在する欠陥1〜6のうち、欠陥4が選択された後、スライドバー170を左右にスライドさせてその抽出の程度が調整、最適化される様子が示されている。   The extent of partial range extraction is interactively optimized through the above flow. FIG. 20 shows an example of a screen on which the degree of extraction is adjusted. After defect 4 is selected from defects 1 to 6 existing in inspection image 160, slide bar 170 is slid left and right to extract the defect. It is shown that the degree of is adjusted and optimized.

調整の結果、再抽出の必要がなくなった場合には、抽出が適切な領域に対する正解カテゴリの入力を行い(ステップS14)、以後は先に示した流れにより教師データ登録過程を終了する。   As a result of the adjustment, if there is no need for re-extraction, the correct answer category is input to the region where extraction is appropriate (step S14), and thereafter, the teacher data registration process is terminated according to the flow described above.

以上、本発明の一実施形態によれば、1つの教師サンプルを、許容範囲内の複数の抽出パラメータにより抽出し、各々の抽出状況における特徴量を算出して複数の教師データを作成するため、少ない教師サンプルを用いて抽出程度の変化に対する分類性能のロバスト性を確保することが可能である。   As described above, according to an embodiment of the present invention, one teacher sample is extracted with a plurality of extraction parameters within an allowable range, and a feature amount in each extraction situation is calculated to create a plurality of teacher data. It is possible to ensure robustness of classification performance against changes in the degree of extraction using a small number of teacher samples.

本発明の一実施形態に係る欠陥分類装置の構成を示す図である。It is a figure which shows the structure of the defect classification apparatus which concerns on one Embodiment of this invention. 教師データ登録過程の処理の流れを説明するためのフローチャート(その1)である。It is a flowchart (the 1) for demonstrating the flow of a process of a teacher data registration process. 教師データ登録過程の処理の流れを説明するためのフローチャート(その2)である。It is a flowchart (the 2) for demonstrating the flow of a process of a teacher data registration process. 欠陥領域抽出の第1の方法について説明するための図である。It is a figure for demonstrating the 1st method of defect area extraction. 欠陥領域抽出の第2の方法について説明するための図である。It is a figure for demonstrating the 2nd method of defect area extraction. モルフォロジー処理(closing処理)を用いた領域連結処理の一例を説明するための図である。It is a figure for demonstrating an example of the area | region connection process using a morphological process (closing process). 処理対象画像の一例を示す図である。It is a figure which shows an example of a process target image. 図6に示す処理対象画像に対する抽出結果を領域重ね合わせにより表示した様子を示す図である。It is a figure which shows a mode that the extraction result with respect to the process target image shown in FIG. 6 was displayed by area | region superimposition. 図7に示す処理対象画像に対する抽出結果を輪郭重ね合わせにより表示した様子を示す図である。It is a figure which shows a mode that the extraction result with respect to the process target image shown in FIG. 7 was displayed by outline superimposition. 領域の選択と正解カテゴリの入力の様子を示す図である。It is a figure which shows the mode of selection of an area | region, and the input of a correct category. 教師データ(複数)の一例を示す図である。It is a figure which shows an example of teacher data (plural). フェレ径を用いた再抽出範囲決定の様子を示す図である。It is a figure which shows the mode of the re-extraction range determination using a ferret diameter. 露光区画を考慮した再抽出範囲決定の様子を示す図である。It is a figure which shows the mode of the re-extraction range determination in consideration of the exposure division. 抽出パラメータを、過剰抽出側、不足抽出側に変化させた際の抽出領域形状の変化を示す図である。It is a figure which shows the change of the extraction area | region shape at the time of changing an extraction parameter to the overextraction side and the underextraction side. 分類過程の処理の流れを説明するための図である。It is a figure for demonstrating the flow of a process of a classification | category process. 教師データを用いて分類を行う方法の1つであるk近傍法による分類の原理を説明するための図である。It is a figure for demonstrating the principle of the classification | category by the k-nearest neighbor method which is one of the methods of classifying using teacher data. 各欠陥種毎の教師データ分布の代表点との距離に基づく分類方法を説明するための図である。It is a figure for demonstrating the classification method based on the distance with the representative point of the teacher data distribution for every defect type. 図1で説明した本欠陥分類装置の変形例を示す図である。It is a figure which shows the modification of this defect classification device demonstrated in FIG. 本変形例に係る欠陥分類装置の処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of a process of the defect classification device which concerns on this modification. 抽出の程度調整を行う画面の例を示す図である。It is a figure which shows the example of the screen which adjusts the degree of extraction. 従来の分類方法の欠点を説明するための図である。It is a figure for demonstrating the fault of the conventional classification method.

符号の説明Explanation of symbols

101…欠陥領域抽出手段、102…表示手段、103…特徴量算出手段、104…操作手段、105…教師データ作成手段、106…教師データ蓄積手段、107…分類手段、108…抽出パラメータ設定手段。   DESCRIPTION OF SYMBOLS 101 ... Defect area extraction means, 102 ... Display means, 103 ... Feature-value calculation means, 104 ... Operation means, 105 ... Teacher data creation means, 106 ... Teacher data storage means, 107 ... Classification means, 108 ... Extraction parameter setting means

Claims (6)

画像に複数の抽出パラメータを適用して複数の教師データを作成し、該複数の教師データを基に分類を行う分類装置であって、
第1の抽出パラメータに基づいて、画像より第1の領域を抽出する第1領域抽出手段と、
前記第1の領域が分類されるべき正解カテゴリを入力する操作手段と、
前記第1の領域に対する特徴量を算出する第1特徴量算出手段と、
前記第1の領域に対する特徴量と、前記正解カテゴリとを用いて、第1の教師データを作成する第1教師データ作成手段と、
前記正解カテゴリが入力された領域に対し、前記第1の抽出パラメータとは異なる第2の抽出パラメータを設定する抽出パラメータ設定手段と、
前記第2の抽出パラメータを基に、前記第1の抽出パラメータによる抽出処理の対象となった画像に含まれる第2の領域を抽出する第2域抽出手段と、
前記第2の領域に対する特徴量を算出する第2特徴量算出手段と、
前記第2の領域に対する特徴量に基づいて、前記第2の領域の抽出結果が妥当か否かを判断し、妥当であると判断されたときに、前記第2の領域に対する特徴量と、前記正解カテゴリとを用いて、第2の教師データを作成する第2教師データ作成手段と、
前記第1の教師データと、前記第2の教師データとを含む複数の教師データを基に分類を行う分類手段と、
を備えることを特徴とする分類装置。
A classification device that applies a plurality of extraction parameters to an image, creates a plurality of teacher data, and performs classification based on the plurality of teacher data,
A first region extracting means for extracting a first region from the image based on the first extraction parameter;
An operation means for inputting a correct answer category in which the first region is to be classified;
First feature amount calculating means for calculating a feature amount for the first region;
First teacher data creating means for creating first teacher data using the feature quantity for the first region and the correct answer category;
Extraction parameter setting means for setting a second extraction parameter different from the first extraction parameter for the region where the correct answer category is input ;
Based on the second extraction parameters, a second territory Iki抽 detecting means to extract the second area included in the image as a target of extraction process by the first extraction parameters,
Second feature amount calculating means for calculating a feature amount for the second region;
Based on the feature amount for the second region, it is determined whether the extraction result of the second region is valid, and when it is determined to be valid, the feature amount for the second region, Second teacher data creating means for creating second teacher data using the correct answer category ;
Classification means for performing classification based on a plurality of teacher data including the first teacher data and the second teacher data ;
A classification apparatus comprising:
前記第2の教師データ作成手段は、前記第2の領域に対する特徴量としての、前記第1、第2の領域の大きさ、形状のうち少なくとも一つの変化量を基に、前記第2の教師データを作成するか否かを判断することを特徴とする請求項1に記載の分類装置。 The second teacher data creating unit is configured to determine the second teacher based on at least one change amount of the size and shape of the first and second regions as a feature amount for the second region. The classification apparatus according to claim 1, wherein it is determined whether or not data is created. 前記第2の教師データ作成手段は、前記第2の領域に対する特徴量としての、前記第1、第2の領域の大きさ、形状のうち少なくとも一つの変化量を基に、前記第2の領域の抽出結果が妥当か否かを判断し、妥当であると判断されたときに、前記抽出パラメータ設定手段により新たな第2の抽出パラメータを設定してさらなる領域抽出を行うことを特徴とする請求項1に記載の分類装置。 The second teacher data creating means is configured to determine the second region based on at least one change amount of the size and shape of the first and second regions as a feature amount for the second region. It is determined whether or not the extraction result is valid, and when it is determined to be valid, a new second extraction parameter is set by the extraction parameter setting means to perform further region extraction. Item 2. The classification device according to Item 1. 前記第1、第2の領域の抽出形状識別可能表示する表示手段を更に備えることを特徴とする請求項1〜3のいずれか1つに記載の分類装置。 The first, the classification apparatus according to any one of claims 1 to 3, further comprising display means for identifiably displaying the shape of the extraction of the second region. 前記分類装置は、特徴量空間内における分類対象領域のデータ近傍に位置する複数の教師データを基に分類を行うことを特徴とする請求項1〜4のいずれか1つに記載の分類装置。   The classification device according to claim 1, wherein the classification device performs classification based on a plurality of teacher data located in the vicinity of data of a classification target region in a feature amount space. 前記分類装置は、特徴量空間内における同一カテゴリの教師データ分布を代表するデータと分類対象領域のデータとの距離を基に分類を行うことを特徴とする請求項1〜4のいずれか1つに記載の分類装置。   5. The classification device according to claim 1, wherein the classification device performs classification based on a distance between data representing the teacher data distribution of the same category in the feature amount space and data of the classification target region. Classification device according to.
JP2004351585A 2004-12-03 2004-12-03 Classification apparatus and classification method Expired - Fee Related JP4266920B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004351585A JP4266920B2 (en) 2004-12-03 2004-12-03 Classification apparatus and classification method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004351585A JP4266920B2 (en) 2004-12-03 2004-12-03 Classification apparatus and classification method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008222226A Division JP2009032273A (en) 2008-08-29 2008-08-29 Classifier

Publications (2)

Publication Number Publication Date
JP2006163608A JP2006163608A (en) 2006-06-22
JP4266920B2 true JP4266920B2 (en) 2009-05-27

Family

ID=36665581

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004351585A Expired - Fee Related JP4266920B2 (en) 2004-12-03 2004-12-03 Classification apparatus and classification method

Country Status (1)

Country Link
JP (1) JP4266920B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080868A1 (en) 2011-11-30 2013-06-06 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2013161589A1 (en) 2012-04-23 2013-10-31 オリンパス株式会社 Image processing device, image processing method, and image processing program

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009032273A (en) * 2008-08-29 2009-02-12 Olympus Corp Classifier
WO2016147652A1 (en) * 2015-03-19 2016-09-22 日本電気株式会社 Object detection device, object detection method, and recording medium
JP6930926B2 (en) 2016-01-29 2021-09-01 富士フイルム株式会社 Defect inspection equipment, methods and programs
JP6936958B2 (en) * 2017-11-08 2021-09-22 オムロン株式会社 Data generator, data generation method and data generation program
CN108875193B (en) * 2018-06-12 2020-01-17 温州大学 Method for evaluating performance of SiC homojunction IMPATT diode
CN112204385A (en) * 2018-06-29 2021-01-08 富士胶片株式会社 Defect display device and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04297973A (en) * 1991-03-27 1992-10-21 Seiko Epson Corp Method for classifying reference vector
JPH0765127A (en) * 1993-08-31 1995-03-10 Hitachi Eng Co Ltd Character deforming method and character recognition device
JP4132229B2 (en) * 1998-06-03 2008-08-13 株式会社ルネサステクノロジ Defect classification method
JP2000020644A (en) * 1998-06-30 2000-01-21 Toshiba Corp Character transformation method and character recognition dictionary preparation device
JP4267103B2 (en) * 1998-09-18 2009-05-27 株式会社日立製作所 Appearance image classification apparatus and method
JP4100885B2 (en) * 2001-07-11 2008-06-11 キヤノン株式会社 Form recognition apparatus, method, program, and storage medium
JP3838091B2 (en) * 2001-12-20 2006-10-25 オムロン株式会社 Pattern recognition apparatus and program for model registration for pattern recognition
JP4155496B2 (en) * 2002-04-25 2008-09-24 大日本スクリーン製造株式会社 Classification support device, classification device, and program
JP2006048370A (en) * 2004-08-04 2006-02-16 Kagawa Univ Method for recognizing pattern, method for generating teaching data to be used for the method and pattern recognition apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013080868A1 (en) 2011-11-30 2013-06-06 オリンパス株式会社 Image processing device, image processing method, and image processing program
WO2013161589A1 (en) 2012-04-23 2013-10-31 オリンパス株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2006163608A (en) 2006-06-22

Similar Documents

Publication Publication Date Title
JP3834041B2 (en) Learning type classification apparatus and learning type classification method
KR101361374B1 (en) Defect observation method and defect observation device
US8165350B2 (en) Assessment of a view through the overlay of maps
JP6080379B2 (en) Semiconductor defect classification device and program for semiconductor defect classification device
US8041443B2 (en) Surface defect data display and management system and a method of displaying and managing a surface defect data
JP4176041B2 (en) Classification apparatus and classification method
JP2001156135A (en) Method and device for sorting defective image and manufacturing method of semiconductor device using them
CN109829445B (en) Vehicle detection method in video stream
KR20150053798A (en) Pattern inspecting and measuring device and program
CN110246129B (en) Image detection method, device, computer readable storage medium and computer equipment
JP2009522561A (en) Method and system for optical inspection of periodic structures
KR20150003270A (en) Defect analysis assistance device, program executed by defect analysis assistance device, and defect analysis system
JP4050273B2 (en) Classification apparatus and classification method
JP4266920B2 (en) Classification apparatus and classification method
CN114972173A (en) Defect detection method, defect detection device and system
CN112017245B (en) Certificate positioning method
CN112508952B (en) Pathological section double-objective lens self-adaptive scanning control method and system
CN112233096B (en) Vehicle apron board fault detection method
WO2011043293A1 (en) Pattern matching method, pattern matching program, electronic computer, and electronic device testing apparatus
CN114419045A (en) Method, device and equipment for detecting defects of photoetching mask plate and readable storage medium
JP2009032273A (en) Classifier
CN105469384A (en) Comprehensive evaluation methods of license plate image quality
JP2005274172A (en) Pattern inspection method and pattern inspection device
JP2006012069A (en) Sorting device and sorting method
JP7156527B2 (en) Road surface inspection device, road surface inspection method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080701

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080829

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081028

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090217

R151 Written notification of patent or utility model registration

Ref document number: 4266920

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120227

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130227

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140227

Year of fee payment: 5

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees