JP2012073761A - Characteristic quantity selection method for classification, image classification method, visual inspection method and visual inspection device - Google Patents

Characteristic quantity selection method for classification, image classification method, visual inspection method and visual inspection device Download PDF

Info

Publication number
JP2012073761A
JP2012073761A JP2010217308A JP2010217308A JP2012073761A JP 2012073761 A JP2012073761 A JP 2012073761A JP 2010217308 A JP2010217308 A JP 2010217308A JP 2010217308 A JP2010217308 A JP 2010217308A JP 2012073761 A JP2012073761 A JP 2012073761A
Authority
JP
Japan
Prior art keywords
feature
classification
effective
feature amount
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010217308A
Other languages
Japanese (ja)
Other versions
JP5637373B2 (en
Inventor
Tsutomu Sakuyama
努 作山
Hiroshi Ogi
寛志 荻
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dainippon Screen Manufacturing Co Ltd
Original Assignee
Dainippon Screen Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dainippon Screen Manufacturing Co Ltd filed Critical Dainippon Screen Manufacturing Co Ltd
Priority to JP2010217308A priority Critical patent/JP5637373B2/en
Publication of JP2012073761A publication Critical patent/JP2012073761A/en
Application granted granted Critical
Publication of JP5637373B2 publication Critical patent/JP5637373B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a classification technology based on characteristic quantities in which only characteristic quantities effective for classification are selected efficiently without deviations and the use of thus selected effective characteristic quantities can provide stable classification results in a short processing time.SOLUTION: In this invention, m characteristic quantities which characterize an image are calculated, and effectiveness W of each characteristic quantity is obtained using a learning algorithm. For the descending sequence of the effectiveness W, the cumulative summation is taken. When the cumulative sum Σw up to the n-th characteristic quantity is 50% of the sum total Sw of the effectiveness of the m characteristic quantities, the characteristic quantities up to the n-th are regarded as effective characteristic quantities.

Description

この発明は、例えば画像をその特徴量に基づいて分類する技術に関するものである。   The present invention relates to a technique for classifying images based on their feature amounts, for example.

例えば画像をその内容に応じていくつかの分類グループに分類する方法として、分類対象となる画像から特徴量を算出し、該特徴量に基づき分類器による分類を行う方法が知られている。この技術においては、分類対象をどのような特徴量に基づいて分類するかが分類精度に大きく影響する。しかしながら、特徴量としては数多くのものが知られており、そのような多くの特徴量に基づく分類は処理時間の点で現実的でないことから、多くの特徴量の中から当該分類対象の分類に適合したものを選出するための技術が従来より提案されている。   For example, as a method of classifying an image into several classification groups according to the contents, a method is known in which feature amounts are calculated from images to be classified, and classification is performed by a classifier based on the feature amounts. In this technology, the classification accuracy of the classification target greatly affects the classification accuracy. However, many feature quantities are known, and classification based on such many feature quantities is not realistic in terms of processing time. Techniques for selecting a suitable one have been conventionally proposed.

例えば、特許文献1に記載の技術では、各特徴量の有意性を、SVM(サポート・ベクタ・マシン)2次計画形式に対応する最小化問題を解くことにより定量的に求め、その値が予め定めた閾値よりも大きいものを有効な特徴量とし、有効とされた特徴量のみを用いて学習および分類を行うようにしている。   For example, in the technique described in Patent Document 1, the significance of each feature amount is quantitatively obtained by solving a minimization problem corresponding to the SVM (support vector machine) quadratic programming format, and the value is obtained in advance. An effective feature amount is set to a value larger than a predetermined threshold value, and learning and classification are performed using only the effective feature amount.

特表2008−524675号公報(例えば、図4)Japanese translation of PCT publication No. 2008-524675 (for example, FIG. 4)

上記従来技術においては、特徴量が有効であるか否かを区別する閾値をどのように設定するかが分類精度の上で重要となる。しかしながら、その設定の方法に関して特許文献1には具体的な記載がない。仮にこれを例えば経験に基づき人為的に設定するとしても、その設定の仕方により有効とされる特徴量の種類や数が変わってくることがあり、後の分類の結果の安定性に悪影響を及ぼすおそれが残されている。   In the above prior art, how to set a threshold value for distinguishing whether or not a feature amount is effective is important for classification accuracy. However, there is no specific description in Patent Document 1 regarding the setting method. Even if this is artificially set based on experience, for example, the type and number of feature values that are valid may change depending on the setting method, which adversely affects the stability of the results of subsequent classification. There is still a fear.

この発明は上記課題に鑑みなされたものであり、特徴量に基づく分類技術において、分類に有効な特徴量のみを効率よく、かつばらつきなく選出し、こうして選出された有効特徴量を使用することにより、短い処理時間で安定した分類結果を得ることを可能とする技術を提供することを目的とする。   The present invention has been made in view of the above problems, and in the classification technique based on the feature amount, only the feature amount effective for classification is selected efficiently and without variation, and the effective feature amount thus selected is used. An object of the present invention is to provide a technique that makes it possible to obtain a stable classification result in a short processing time.

この発明にかかる特徴量選出方法の一の態様は、特徴量に基づき分類を行うための、複数種の特徴量の中から分類結果に与える影響の大きい有効特徴量を選出する特徴量選出方法であって、上記目的を達成するため、前記複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、前記指標値に基づいて、前記複数種の特徴量の中から前記有効特徴量を選出する有効特徴量選出工程とを備え、前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから第N番目(Nは自然数)のものまでを前記有効特徴量として選出し、しかも、前記複数種の特徴量全ての前記指標値の総和に対する前記N個の有効特徴量それぞれの前記指標値の和の割合が、予め定められた規定割合となるようにすることを特徴としている。   One aspect of the feature quantity selection method according to the present invention is a feature quantity selection method for selecting an effective feature quantity having a large influence on a classification result from a plurality of types of feature quantities for performing classification based on the feature quantity. Then, in order to achieve the above object, machine learning is performed based on the plurality of types of feature amounts, and based on the result, an index value using the magnitude of the influence on the classification result as an index between the plurality of types of feature amounts A learning step for each feature amount, and an effective feature amount selection step for selecting the effective feature amount from the plurality of types of feature amounts based on the index value, wherein the effective feature amount selection step From among the plurality of types of feature quantities, the index value having the highest value to the Nth (N is a natural number) is selected as the effective feature quantity, and all of the plurality of types of feature quantities are selected. N for the sum of the index values of The proportion of the sum of the effective characteristic quantity each of the index value of, is characterized in that such a defined predetermined proportion.

また、この発明にかかる特徴量選出方法の他の態様は、特徴量に基づき分類を行うための、複数種の特徴量の中から分類結果に与える影響の大きい有効特徴量を選出する特徴量選出方法であって、上記目的を達成するため、前記複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、前記指標値に基づいて、前記複数種の特徴量の中から前記有効特徴量を選出する有効特徴量選出工程とを備え、前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから順に当該特徴量に対応する前記指標値を累積加算し、該累積加算値が前記複数種の特徴量全ての前記指標値の総和に対して占める割合が予め定められた規定割合に達すると、それまで累積加算した前記指標値に対応する特徴量を前記有効特徴量とすることを特徴としている。   Another aspect of the feature quantity selection method according to the present invention is a feature quantity selection process for selecting an effective feature quantity having a large influence on a classification result from a plurality of types of feature quantities for performing classification based on the feature quantity. In order to achieve the above object, machine learning is performed based on the plurality of types of feature values, and based on the result, the magnitude of the influence on the classification result is used as an index between the plurality of types of feature values. A learning step for obtaining an index value for each feature amount; and an effective feature amount selection step for selecting the effective feature amount from the plurality of types of feature amounts based on the index value. In the step, the index values corresponding to the feature values are cumulatively added in order from the largest of the index values of the plurality of feature amounts, and the cumulative addition values are all of the plurality of feature amounts. Of the index value If There reaches a predetermined percentage of a predetermined, is characterized in that the said effective characteristic quantity a feature amount corresponding to the index value obtained by accumulating far.

これらの発明では、機械学習の結果、分類結果に与える影響が大きいという結果が得られた特徴量が有効特徴量として選出される。しかも、有効特徴量とする特徴量の数や指標値の閾値を一義的に決めるのではなく、これらは機械学習によって得られる各特徴量ごとの有効性を表す指標値の値に応じて動的にかつ客観的に決定され、それに基づいて有効特徴量が選出される。そのため、選出される有効特徴量の数や種類についてのばらつきが生じない。したがって、本発明によれば、多くの特徴量の中から、分類に有効な特徴量を効率よく選出することができ、その結果にばらつきが生じない。そして、こうして選出された有効特徴量を用いて分類を行うことで、短い処理時間で安定した分類結果を得ることが可能となる。   In these inventions, as a result of machine learning, a feature quantity that has obtained a result that the influence on the classification result is large is selected as an effective feature quantity. In addition, the number of feature values to be used as effective feature values and the threshold value of the index value are not uniquely determined, but these are dynamically determined according to the value of the index value representing the effectiveness of each feature value obtained by machine learning. And an effective feature amount is selected based on the objective decision. Therefore, there is no variation in the number and type of effective feature quantities to be selected. Therefore, according to the present invention, a feature amount effective for classification can be efficiently selected from many feature amounts, and the result does not vary. Then, by performing classification using the effective feature amount selected in this way, it is possible to obtain a stable classification result in a short processing time.

この発明において、学習工程では、例えば複数種の特徴量についてのSVM(サポート・ベクタ・マシン)に対応する最適化問題を解き、その最適解の値を指標値とすることができる。SVMの理論によれば、最適化問題の最適解の値が直接的に各特徴量の有効性を指標する値となることが知られており、これを本発明の「指標値」とすることで効率よく有効特徴量を選出することができる。   In the present invention, in the learning step, for example, an optimization problem corresponding to SVM (support vector machine) for a plurality of types of feature quantities can be solved, and the value of the optimum solution can be used as an index value. According to the theory of SVM, it is known that the value of the optimal solution of the optimization problem directly becomes a value indicating the effectiveness of each feature quantity, and this is set as the “index value” of the present invention. Can effectively select effective features.

また、これに代えて、複数種の特徴量についてニューラルネットワークを構築し、当該ニューラルネットワークにおける各ニューロンの枝の重みに基づく値を指標値とするようにしてもよい。学習により構築されたニューラルネットワークでは、ある特徴量に対応するニューロンの枝の重みに基づく値、例えば枝の重みの絶対値の和が当該特徴量の有効性を表す指標値となる。これを本発明の「指標値」とすることによっても、有効特徴量を効率よく選出することが可能である。   Alternatively, a neural network may be constructed for a plurality of types of feature values, and a value based on the weight of each neuron branch in the neural network may be used as the index value. In a neural network constructed by learning, a value based on the weight of a neuron branch corresponding to a certain feature value, for example, the sum of the absolute values of the branch weights becomes an index value representing the effectiveness of the feature value. By making this an “index value” of the present invention, it is possible to efficiently select an effective feature amount.

また、この発明にかかる画像の分類方法は、上記目的を達成するため、分類対象となる画像について、上記したいずれかの特徴量選出方法により選出された有効特徴量を算出する特徴量算出工程と、算出された有効特徴量に基づき分類を行って画像を分類する分類工程とを備えることを特徴としている。このように構成された発明では、多くの特徴量の中から上記のようにばらつきのない選出方法で選出された有効特徴量に基づいて分類を行うので、安定した分類結果を短い処理時間によって得ることが可能である。   The image classification method according to the present invention includes a feature amount calculating step for calculating an effective feature amount selected by any one of the above-described feature amount selection methods for an image to be classified in order to achieve the above object. And a classification step of classifying images based on the calculated effective feature amount. In the invention configured as described above, the classification is performed based on the effective feature quantity selected from the many feature quantities by the selection method having no variation as described above, so that a stable classification result is obtained in a short processing time. It is possible.

この分類方法においては、上記のようにして選出された有効特徴量を用いて再学習を行い、該再学習結果に基づき分類を行うようにしてもよい。こうすることで、分類の精度をより向上させることが可能である。   In this classification method, relearning may be performed using the effective feature amount selected as described above, and classification may be performed based on the relearning result. By doing so, it is possible to further improve the accuracy of classification.

また、この発明にかかる外観検査方法は、検査対象物の外観を検査する外観検査方法であって、上記目的を達成するため、前記検査対象物の外観を撮像した画像を取得する画像取得工程と、取得した前記画像を、上記した分類方法により分類する工程とを備えることを特徴としている。さらに、この発明にかかる外観検査装置は、上記目的を達成するため、検査対象物の外観を撮像した画像を取得する画像取得手段と、取得した前記画像を上記した分類方法により分類する分類手段とを備えることを特徴としている。これらの発明によれば、多くの特徴量の中から上記のようにばらつきのない選出方法で選出された有効特徴量に基づいて検査対象物の画像を分類することができるので、検査対象物の外観検査を短い処理時間で安定的に行うことができる。   Further, an appearance inspection method according to the present invention is an appearance inspection method for inspecting the appearance of an inspection object, and in order to achieve the above object, an image acquisition step of acquiring an image obtained by imaging the appearance of the inspection object; And the step of classifying the acquired image by the above-described classification method. Furthermore, in order to achieve the above object, the appearance inspection apparatus according to the present invention acquires an image obtained by capturing an image of the appearance of the inspection object, and classifying means for classifying the acquired image by the classification method described above. It is characterized by having. According to these inventions, since the image of the inspection object can be classified based on the effective feature quantity selected by the selection method having no variation as described above from among many feature quantities, Appearance inspection can be performed stably in a short processing time.

この発明によれば、機械学習の結果に基づいて、分類に有効な有効特徴量を効率よく、かつばらつきなく客観的に求めることができるので、特徴量に基づく分類を短い処理時間で、しかも安定して行うことができる。   According to the present invention, effective feature quantities effective for classification can be obtained efficiently and objectively based on the results of machine learning, so that classification based on feature quantities can be performed stably in a short processing time. Can be done.

この発明にかかる外観検査装置の一実施形態としての検査システムの概略構成を示す図である。It is a figure showing the schematic structure of the inspection system as one embodiment of the appearance inspection device concerning this invention. この検査システムにおける自動欠陥分類処理を示すフローチャートである。It is a flowchart which shows the automatic defect classification | category process in this inspection system. この実施形態における学習処理を示すフローチャートである。It is a flowchart which shows the learning process in this embodiment. この実施形態における有効特徴量の選出方法の基本概念を示す図である。It is a figure which shows the basic concept of the selection method of the effective feature-value in this embodiment. 有効特徴量を選出するための処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process for selecting an effective feature-value. ニューラルネットワークの一例を示す図である。It is a figure which shows an example of a neural network. SVMを用いた場合の実験結果の一例を示す図である。It is a figure which shows an example of the experimental result at the time of using SVM. ニューラルネットワークを用いた場合の実験結果の一例を示す図である。It is a figure which shows an example of the experimental result at the time of using a neural network.

図1はこの発明にかかる外観検査装置の一実施形態としての検査システムの概略構成を示す図である。この検査システム1は、検査対象である半導体基板(以下「基板」という。)Sの外観に現れたピンホールや異物等の欠陥検査を行い、検出された欠陥の自動分類を行う検査システムである。検査システム1は、基板S上の検査対象領域を撮像する撮像装置2と、撮像装置2からの画像データに基づいて欠陥検査を行うとともに欠陥が検出された場合に欠陥が属すべきカテゴリへと欠陥を自動分類(ADC;automatic defect classification)する検査・分類機能および検査システム1の全体動作を制御する機能を有するホストコンピュータ5を有する。撮像装置2は基板Sの製造ラインに組み込まれ、検査システム1はいわゆるインライン型のシステムとなっている。   FIG. 1 is a diagram showing a schematic configuration of an inspection system as an embodiment of an appearance inspection apparatus according to the present invention. This inspection system 1 is an inspection system that performs inspection of defects such as pinholes and foreign matters appearing on the appearance of a semiconductor substrate (hereinafter referred to as “substrate”) S to be inspected, and automatically classifies detected defects. . The inspection system 1 performs the defect inspection based on the image data from the image pickup device 2 and the image pickup device 2 that picks up the inspection target area on the substrate S, and when the defect is detected, the defect belongs to the category to which the defect should belong. A host computer 5 having an inspection / classification function for automatically classifying (ADC) and a function for controlling the entire operation of the inspection system 1 is provided. The imaging device 2 is incorporated in the production line of the substrate S, and the inspection system 1 is a so-called inline system.

撮像装置2は、基板S上の検査対象領域を撮像することにより画像データを取得する撮像部21、基板Sを保持するステージ22、および、撮像部21に対してステージ22を相対的に移動させるステージ駆動部23を有し、撮像部21は、照明光を出射する照明部211、基板Sに照明光を導くとともに基板Sからの光が入射する光学系212、および、光学系212により結像された基板Sの像を電気信号に変換する撮像デバイス213を有する。ステージ駆動部23はボールねじ、ガイドレールおよびモータにより構成され、ホストコンピュータ5に設けられた装置制御部501がステージ駆動部23および撮像部21を制御することにより、基板S上の検査対象領域が撮像される。   The imaging device 2 moves the stage 22 relative to the imaging unit 21 that acquires image data by imaging the inspection target region on the substrate S, the stage 22 that holds the substrate S, and the imaging unit 21. The imaging unit 21 includes a stage driving unit 23, and an imaging unit 21 forms an image by an illumination unit 211 that emits illumination light, an optical system 212 that guides the illumination light to the substrate S and receives light from the substrate S, and an optical system 212. An imaging device 213 that converts the image of the substrate S thus converted into an electrical signal is included. The stage drive unit 23 includes a ball screw, a guide rail, and a motor. The apparatus control unit 501 provided in the host computer 5 controls the stage drive unit 23 and the imaging unit 21, so that the inspection target region on the substrate S is changed. Imaged.

ホストコンピュータ5は、予め読み込まれた制御プログラムを実行することにより、図1に示す各機能ブロックをソフトウェアにより実現する。ホストコンピュータ5は、上記の装置制御部501のほか、欠陥検出部502、欠陥分類部(ADC)503、有効特徴量特定部504、教示部505、特徴量算出器506などの各機能ブロックを備えている。さらに、ホストコンピュータ5は、各種データを記憶するための記憶装置510、ユーザからの操作入力を受け付けるキーボードおよびマウスなどの入力受付部511および操作手順や処理結果等のユーザ向け視覚情報を表示する表示部512などを備えている。また、図示を省略しているが、光ディスク、磁気ディスク、光磁気ディスク等のコンピュータ読み取り可能な記録媒体から情報の読み取りを行う読取装置を有し、検査システム1の他の構成との間で信号を送受信する通信部が、適宜、インターフェイス(I/F)を介する等して接続される。   The host computer 5 implements each functional block shown in FIG. 1 by software by executing a control program read in advance. In addition to the apparatus control unit 501, the host computer 5 includes functional blocks such as a defect detection unit 502, a defect classification unit (ADC) 503, an effective feature amount specifying unit 504, a teaching unit 505, and a feature amount calculator 506. ing. Further, the host computer 5 displays a storage device 510 for storing various data, an input receiving unit 511 such as a keyboard and a mouse for receiving operation inputs from the user, and a display for displaying visual information for the user such as operation procedures and processing results. Part 512 and the like. Although not shown in the figure, a reading device for reading information from a computer-readable recording medium such as an optical disk, a magnetic disk, a magneto-optical disk, etc. Are suitably connected via an interface (I / F) or the like.

各機能ブロックの詳細については後に説明するが、ここでは各機能ブロックの機能について簡単に説明しておく。欠陥検出部502は、検査対象領域の画像データを処理しつつ、検査対象領域中の特異な領域を見出すことで欠陥検出を行う。欠陥検出部502が検査対象領域から欠陥を検出すると、欠陥の画像データや検査に利用された各種データが記憶装置510に一時的に保存される。   The details of each functional block will be described later, but here, the function of each functional block will be briefly described. The defect detection unit 502 performs defect detection by finding a unique area in the inspection target area while processing the image data of the inspection target area. When the defect detection unit 502 detects a defect from the inspection target area, image data of the defect and various data used for the inspection are temporarily stored in the storage device 510.

一方、欠陥分類部503は、検出された欠陥をSVM(サポート・ベクタ・マシン;Support Vector Machine)、ニューラルネットワーク、決定木、判別分析等の学習アルゴリズムを利用して分類する処理をソフトウェア的に実行する。教示部505は欠陥分類部503に上記アルゴリズムを機械学習させるための教示データを与える。特徴量算出器506は、検出された欠陥の画像データに基づいて、当該欠陥を特徴付ける特徴量を算出する。有効特徴量特定部504は、多くの特徴量のうち欠陥分類に適したいくつかの特徴量を有効特徴量として特定し、その情報を教示部505に与える。   On the other hand, the defect classification unit 503 performs, in software, a process of classifying detected defects using learning algorithms such as SVM (Support Vector Machine), neural network, decision tree, and discriminant analysis. To do. A teaching unit 505 gives teaching data for causing the defect classification unit 503 to machine-learn the algorithm. The feature amount calculator 506 calculates a feature amount characterizing the defect based on the detected defect image data. The effective feature amount specifying unit 504 specifies some feature amounts suitable for defect classification among many feature amounts as effective feature amounts, and gives the information to the teaching unit 505.

図2はこの検査システムにおける自動欠陥分類処理を示すフローチャートである。この処理は本発明の「外観検査方法」の一実施形態であり、まず検査対象物の画像を取得する(ステップS101)。具体的には、撮像装置2が検査対象となる基板S表面を撮像する。そして、欠陥検出部502は撮像された画像について欠陥検出を行う(ステップS102)。以下では、欠陥を含むとみなされる画像を「欠陥画像」と称することとする。   FIG. 2 is a flowchart showing an automatic defect classification process in this inspection system. This process is an embodiment of the “appearance inspection method” of the present invention. First, an image of the inspection object is acquired (step S101). Specifically, the imaging device 2 images the surface of the substrate S to be inspected. Then, the defect detection unit 502 performs defect detection on the captured image (step S102). Hereinafter, an image regarded as including a defect is referred to as a “defect image”.

欠陥画像が検出されると、欠陥検出部502は検査対象領域の画像(欠陥画像)や検査処理の際に求められたデータ(当該検査対象領域の座標情報、差分画像、参照画像等のデータ)を出力し、これらのデータは欠陥分類部503に送られるほか、記憶装置510にも書き込まれる。記憶装置510に記憶された画像データに基づいて、特徴量算出器506が当該欠陥画像の特徴量を算出する(ステップS103)。   When the defect image is detected, the defect detection unit 502 displays an image of the inspection target area (defect image) and data obtained at the time of the inspection process (data such as coordinate information of the inspection target area, difference image, reference image, and the like). These data are sent to the defect classification unit 503 and also written to the storage device 510. Based on the image data stored in the storage device 510, the feature amount calculator 506 calculates the feature amount of the defect image (step S103).

続いて、検出された欠陥の自動分類が欠陥分類部503により行われる(ステップS104)。欠陥分類部503は、機械学習アルゴリズムを実行可能となっており、教示部505から与えられる教師データに基づいて予め行った学習結果に基づいて、欠陥画像の分類を行う。具体的には、特徴量算出器506により求められた欠陥画像の特徴量に基づいて、欠陥の特徴に応じて予め設定されている複数の分類カテゴリのいずれに当該欠陥画像が該当するかを決定する。なお、特徴量とは、画素値を所定の規則にて演算処理することにより得られる値を指し、特徴量の多くは、画像に何らかのフィルタを作用させることにより得られる。例えば、画像の平均輝度、テクスチャ情報、所定の条件を満たす領域の大きさ、抽出されるエッジの量等のように画像の何らかの特徴を示す指標値が特徴量とされる。複数の自己相関フィルタを用いた高次局所自己相関に基づく特徴量を用いてもよい。   Subsequently, the automatic classification of the detected defect is performed by the defect classification unit 503 (step S104). The defect classification unit 503 can execute a machine learning algorithm, and classifies a defect image based on a learning result performed in advance based on teacher data given from the teaching unit 505. Specifically, based on the feature amount of the defect image obtained by the feature amount calculator 506, it is determined which of the plurality of classification categories set in advance according to the feature of the defect corresponds to the defect image. To do. Note that the feature amount refers to a value obtained by processing the pixel value according to a predetermined rule, and most of the feature amount is obtained by applying some kind of filter to the image. For example, an index value indicating some feature of the image such as the average luminance of the image, texture information, the size of an area satisfying a predetermined condition, the amount of an edge to be extracted, and the like is used as the feature amount. A feature amount based on higher-order local autocorrelation using a plurality of autocorrelation filters may be used.

分類の結果は適宜の表示方法により表示部512に表示され(ステップS105)、ユーザに提示される。検査システム1では、欠陥検出部502にて欠陥が検出される毎に図2のステップS103ないしS105に示す動作がリアルタイムにて行われ、欠陥を示す多量の画像の分類が高速に行われる。こうして検出された欠陥画像は対応する分類カテゴリに分類されてゆく。   The classification result is displayed on the display unit 512 by an appropriate display method (step S105) and presented to the user. In the inspection system 1, every time a defect is detected by the defect detection unit 502, the operations shown in steps S103 to S105 in FIG. 2 are performed in real time, and a large number of images indicating defects are classified at high speed. The defect images detected in this way are classified into corresponding classification categories.

次に、欠陥分類部503による学習処理について説明する。この実施形態では、図2の欠陥分類処理に先立って、欠陥分類部503等が以下に説明する学習処理を行う。学習処理では、欠陥の種類に対応する分類カテゴリごとの典型的な欠陥画像についてユーザから教示を受け、そのような欠陥画像の典型例を教師データとして学習を行うことによって、新たに検出された未知の欠陥画像をその特徴に基づいていくつかの分類カテゴリに分類することが可能となっている。   Next, the learning process by the defect classification unit 503 will be described. In this embodiment, prior to the defect classification process of FIG. 2, the defect classification unit 503 and the like perform a learning process described below. In the learning process, a newly detected unknown is obtained by receiving a teaching from a user about a typical defect image for each classification category corresponding to the type of defect and learning as a typical example of such a defect image as teacher data. It is possible to classify the defect image into several classification categories based on the feature.

図3はこの実施形態における学習処理を示すフローチャートである。まず教師データとなる画像を取得する(ステップS201)。この画像は、撮像装置2によって例えばサンプル基板を撮像することで新たに取得してもよく、また欠陥画像の典型例としてライブラリ化された画像を外部装置から取り込むものであってもよい。そして、こうして取得した画像から欠陥部分を検出するとともに(ステップS202)、その画像データの特徴量を、特徴量算出器506により算出する(ステップS203)。この時点では、欠陥を的確に分類するためにどのような特徴量を用いるべきかが不明であるため、算出する特徴量としてはできるだけ種類が豊富であることが望ましい。   FIG. 3 is a flowchart showing the learning process in this embodiment. First, an image serving as teacher data is acquired (step S201). This image may be newly acquired by, for example, imaging a sample substrate by the imaging device 2, or may be an image obtained from a library as a typical example of a defect image from an external device. Then, a defective portion is detected from the image thus obtained (step S202), and the feature amount of the image data is calculated by the feature amount calculator 506 (step S203). At this point in time, it is unclear what feature values should be used to classify defects accurately, so it is desirable that the feature values to be calculated be as rich as possible.

次に、欠陥画像を何通りの、またどのような分類カテゴリに分類するかをユーザに設定入力させ、教示部505はそれらに対応する分類カテゴリを作成する(ステップS204)。そして、検出された欠陥画像を順次表示部512に表示させて、表示された欠陥がどの分類カテゴリに分類されるべきものかについてのユーザの教示入力を受け付ける(ステップS205)。教示入力により各分類カテゴリごとに少なくとも1つの欠陥画像が指定されると、教示部505は、その教示入力結果と各欠陥画像の特徴量とを欠陥分類部503に与え、欠陥分類部503はこれらに基づく学習作業を行う(ステップS206)。この際の学習プロセスとしては、例えばSVM(Support Vector Machine)や判別分析法、ニューラルネットワークによるものなど、公知のものを適用することができる。こうして得られた学習データを符号S1により表す。   Next, the user is allowed to set and input how many and what classification categories the defect image is classified into, and the teaching unit 505 creates classification categories corresponding to them (step S204). Then, the detected defect images are sequentially displayed on the display unit 512, and a user's teaching input as to which classification category the displayed defect should be classified is received (step S205). When at least one defect image is designated for each classification category by the teaching input, the teaching unit 505 gives the teaching input result and the feature amount of each defect image to the defect classification unit 503, and the defect classification unit 503 A learning operation based on the above is performed (step S206). As a learning process at this time, for example, a well-known process such as an SVM (Support Vector Machine), a discriminant analysis method, or a neural network can be applied. The learning data obtained in this way is represented by reference numeral S1.

ここでの学習では多くの特徴量を用いているため分類の精度は高いが演算処理に時間を要する。そのため、このままリアルタイムでの欠陥分類に適用するには処理時間の点で問題がある。一方、学習作業の結果、それぞれの特徴量が分類結果にどの程度寄与しているのかが明らかになる。このことから、多くの特徴量のうち、分類結果に与える影響の大きいものを有効特徴量として選出し、以後の学習・分類処理はこの有効特徴量のみを用いて行う。こうすることで、演算に用いる特徴量の種類を少なくして処理時間を短縮することができる。   In this learning, since many feature quantities are used, classification accuracy is high, but calculation processing takes time. For this reason, there is a problem in terms of processing time when applied to defect classification in real time as it is. On the other hand, as a result of the learning work, it becomes clear how much each feature amount contributes to the classification result. From this, among the many feature quantities, those having a large influence on the classification result are selected as effective feature quantities, and the subsequent learning / classification process is performed using only these effective feature quantities. In this way, the processing time can be shortened by reducing the types of feature values used in the calculation.

その一方で、使用する特徴量を削減することは分類精度の低下につながるおそれがあるので、分類精度を維持するためには、有効特徴量をどのようにして選出するかが重要である。この実施形態では次のようにしている。すなわち、学習作業の結果S1から各特徴量ごとの有効度を定量的に求め(ステップS207)、有効度の値Wに基づき有効特徴量を特定する(ステップS208)。具体的には、有効度の値Wが高いものが有効特徴量となるようにする。   On the other hand, reducing feature quantities to be used may lead to a decrease in classification accuracy, so how to select effective feature quantities is important to maintain classification accuracy. In this embodiment, the following is performed. That is, the effectiveness for each feature amount is quantitatively obtained from the result S1 of the learning work (step S207), and the effective feature amount is specified based on the value W of the effectiveness (step S208). Specifically, an effective feature amount having a high effectiveness value W is set.

図4はこの実施形態における有効特徴量の選出方法の基本概念を示す図である。図4に丸印で示すように、こうして得られた各特徴量に対応する有効度をその値Wの大きいものから順に並べた場合を考える。ここでは、m個(mは自然数)の特徴量が学習に用いられたものとし、それらの特徴量に対し有効度Wが最も大きいものから順に符号X1,X2,…,Xmを付すものとする。また、特徴量X1,X2,…,Xmに対応する有効度の値Wをそれぞれ符号W1,W2,…,Wmで表す。さらに、各特徴量の有効度Wの総和を符号Swで表す。すなわち、
Sw=W1+W2+…+Wm
である。
FIG. 4 is a diagram showing the basic concept of the effective feature amount selection method in this embodiment. Consider the case where the effectiveness corresponding to each feature quantity obtained in this way is arranged in descending order of the value W, as indicated by a circle in FIG. Here, m feature values (m is a natural number) are assumed to be used for learning, and X1, X2,..., Xm are assigned in order from those having the highest effectiveness W to the feature values. . Also, the effectiveness values W corresponding to the feature amounts X1, X2,..., Xm are represented by symbols W1, W2,. Furthermore, the sum of the effectiveness W of each feature amount is represented by a symbol Sw. That is,
Sw = W1 + W2 + ... + Wm
It is.

各特徴量X1,X2,…,Xmの間では、有効度Wの値が大きい特徴量ほど当然に分類結果に与える影響が大きく、分類作業においては無視することができないものである。一方、有効度Wの小さな特徴量については分類結果に与える影響も小さく、これらを分類作業から除外しても分類精度の低下は小さいと考えられる。このような影響の小さい特徴量を除外し、影響の大きい、つまり有効度Wの大きい特徴力のみを用いて分類を行うようにすれば、特徴量の算出およびそれに基づく分類作業に要する処理時間を大きく短縮することが可能である。   Among the feature amounts X1, X2,..., Xm, the feature amount having a larger value of the effectiveness W naturally has a larger influence on the classification result, and cannot be ignored in the classification operation. On the other hand, a feature amount having a low effectiveness W has little influence on the classification result, and even if these are excluded from the classification work, it is considered that the degradation of classification accuracy is small. If such a feature quantity having a small influence is excluded and classification is performed using only a feature power having a large influence, that is, a high effectiveness W, the processing time required for the calculation of the feature quantity and the classification work based thereon is reduced. It can be greatly shortened.

したがって、有効度Wの大きい特徴量を有効特徴量として選出すればよいのであるが、m個の特徴量のうちいくつを有効特徴量とするかが問題となる。前述の特許文献1に記載の技術思想では、有効度Wに閾値を定めて該閾値より有効度の大きい特徴量を有効特徴量とすることになる。しかしながら、閾値の定め方によって選出される有効特徴量の数は大きく変動し、しかも、それによる分類精度への影響は不明である。実際に、特許文献1には閾値をどのように定めるかについて明記されていない。   Therefore, a feature quantity having a large effectiveness W may be selected as an effective feature quantity. However, there is a problem of how many of m feature quantities are effective feature quantities. According to the technical idea described in Patent Document 1 described above, a threshold value is set for the effectiveness W, and a feature amount having an effectiveness higher than the threshold is set as an effective feature amount. However, the number of effective feature quantities selected depending on how the threshold value is determined varies greatly, and the effect on the classification accuracy is unknown. Actually, Patent Document 1 does not specify how to set the threshold value.

一方、この実施形態では次のようにして有効特徴量を選出する。上記のようにして得られた有効度Wの配列W1,W2,…,Wmにおいて、その値の大きいものから順に有効度の値Wを累積加算してゆく。この累積加算値を符号Σwで表す。図4に示すように、累積加算値Σwが有効度の総和Swに対して規定の割合、例えば50%に達する有効度の順位をnとする。言い換えれば、有効度の値Wの大きさが最上位から第n番目のものまで(図4では白丸印で示す)についてその値Wを累積加算したとき、その累積加算値Σw:
Σw=W1+W2+…+Wn
が、有効度の総和Swの50%以上となっている。
On the other hand, in this embodiment, an effective feature amount is selected as follows. In the array W1, W2,..., Wm of the effectiveness W obtained as described above, the effectiveness values W are cumulatively added in descending order. This cumulative addition value is represented by symbol Σw. As shown in FIG. 4, it is assumed that the order of effectiveness at which the cumulative added value Σw reaches a specified ratio, for example, 50%, with respect to the total sum Sw of effectiveness is n. In other words, when the value W is cumulatively added from the highest value to the nth value (indicated by white circles in FIG. 4), the cumulative added value Σw:
Σw = W1 + W2 + ... + Wn
However, it is 50% or more of the total sum Sw of effectiveness.

このとき、有効度の値Wの大きさが最上位のものから第n番目のものまでに対応する特徴量、すなわち特徴量X1,X2,…,Xnを、当該分類のための有効特徴量とし、これ以降の特徴量(図4にハッチング付きの丸印で示す)については処理対象から除外する。詳しくは後述するが、こうすることにより、分類精度を低下させることなく、分類に使用する特徴量をm個からn個に削減することが可能となる。使用する特徴量の種類が削減されることにより、分類作業に要する処理時間を短縮することができる。   At this time, the feature values corresponding to the value of the effectiveness value W from the highest to the nth, that is, feature values X1, X2,..., Xn are used as effective feature values for the classification. The subsequent feature quantities (indicated by hatched circles in FIG. 4) are excluded from the processing target. As will be described in detail later, this makes it possible to reduce the number of feature quantities used for classification from m to n without reducing the classification accuracy. By reducing the types of feature values to be used, the processing time required for the classification work can be shortened.

このように、この実施形態では、各特徴量の有効度Wを大きいものから順に累積加算し、その累積加算値Σwが有効度の総和Swに対して占める割合が規定割合に達するまでに加算されたn個の有効度(W1,W2,…,Wn)に対応するn個の特徴量(X1,X2,…,Xn)を有効特徴量とする。そのため、有効特徴量とみなされる特徴量に対応する有効度の値や選出される有効特徴量の数は予め決まっておらず、これらは各特徴量が有する有効度の分布の程度によって動的に決まるものである。このように、各特徴量の有効度の分布状態に応じて有効特徴量が選出されるため、この実施形態では分類の精度を低下させることなく、分類に必要な特徴量の数を削減することができる。この原理に基づく有効特徴量の選出については、種々のアルゴリズムにより実現可能であるが、例えば以下のようなソフトウェア処理によって実現することができる。   As described above, in this embodiment, the effectiveness W of each feature amount is cumulatively added in order from the largest, and the cumulative addition value Σw is added until the proportion of the total sum Sw of the effectiveness reaches a specified proportion. Further, n feature amounts (X1, X2,..., Xn) corresponding to the n effectiveness levels (W1, W2,..., Wn) are set as effective feature amounts. For this reason, the value of the effectiveness corresponding to the feature amount regarded as the effective feature amount and the number of effective feature amounts to be selected are not determined in advance, and these values are dynamically determined depending on the distribution of the effectiveness level of each feature amount. It is determined. As described above, since the effective feature amount is selected according to the distribution state of the effectiveness level of each feature amount, in this embodiment, the number of feature amounts necessary for the classification is reduced without reducing the accuracy of the classification. Can do. The selection of the effective feature amount based on this principle can be realized by various algorithms. For example, it can be realized by the following software processing.

図5は有効特徴量を選出するための処理の一例を示すフローチャートである。最初に、m個の特徴量の有効度W(W1,W2,…,Wm)の総和Swを算出するとともに(ステップS301)、有効度の累積値Σwをリセットして0にする(ステップS302)。次に、m個の特徴量のうち、まだ以下の処理のために選出されていない未選出の特徴量の中から、特徴量に対応する有効度Wの値が最も大きいものを選出する(ステップS303)。第1回目の処理では当然に、最も大きな有効度W1を有する特徴量X1が選出されることになる。   FIG. 5 is a flowchart showing an example of processing for selecting an effective feature amount. First, the sum Sw of m feature quantity effectiveness W (W1, W2,..., Wm) is calculated (step S301), and the cumulative effectiveness value Σw is reset to 0 (step S302). . Next, among the m feature quantities, the one having the largest value of the effectiveness W corresponding to the feature quantity is selected from unselected feature quantities not yet selected for the following processing (step S303). Naturally, in the first process, the feature amount X1 having the largest effectiveness W1 is selected.

こうして選出された特徴量に対応する有効度Wを累積加算してゆき(ステップS304)、累積加算値Σwが有効度の総和Swの50%以上となるまで(ステップS305)、特徴量の選出と有効度の累積加算を繰り返す。累積加算値Σwが有効度の総和Swの50%以上になれば、そのときまでに選出されている特徴量を有効特徴量とすることができる(ステップS306)。このように、有効特徴量を求めるに際しては、図4の原理図に示すような有効度に応じて特徴量を並べ替える工程を必須とするものではない。   The effectiveness W corresponding to the selected feature quantity is cumulatively added (step S304), and the feature quantity is selected until the cumulative addition value Σw becomes 50% or more of the total sum Sw of the effectiveness (step S305). Repeat cumulative addition of effectiveness. If the cumulative addition value Σw becomes 50% or more of the total sum Sw of the effectiveness, the feature quantity selected so far can be set as the effective feature quantity (step S306). As described above, when the effective feature amount is obtained, the step of rearranging the feature amount according to the effectiveness as shown in the principle diagram of FIG. 4 is not essential.

ここで、欠陥分類部503の学習アルゴリズムがSVMである場合、多数の特徴量についての最適化問題を解くと、その最適解がそのまま各特徴量の有効度Wを示す指標となる。したがって、この場合には最適解の値を用いて簡単に有効特徴量を選出することが可能である。一方、学習アルゴリズムが例えばニューラルネットワークを利用したものである場合には、有効度Wに相当する値を例えば次のようにして求めることができる。   Here, when the learning algorithm of the defect classification unit 503 is SVM, when the optimization problem for a large number of feature quantities is solved, the optimum solution becomes an index indicating the effectiveness W of each feature quantity as it is. Therefore, in this case, it is possible to easily select an effective feature amount using the value of the optimal solution. On the other hand, when the learning algorithm uses a neural network, for example, a value corresponding to the effectiveness W can be obtained as follows, for example.

図6はニューラルネットワークの一例を示す図である。特徴量X1,X2,X3に対して分類カテゴリY1,Y2,Y3が与えられて学習を行った結果、図5に示すニューラルネットワークが構築され、各枝の重み(W111〜W223)が与えられる。こうして得られた枝の重みのうち、入力層側の第1層における枝の重みの絶対値を各特徴量ごとに加算した値を、有効度を指標する値として用いることができる。例えば、特徴量X1に対しては、第1層の各枝の重みW111、W112の絶対値の和:
W1=|W111|+|W112|
を当該特徴量X1の有効度を示す値とすることができる。そして、図4または図5の手法を適用することにより、同様に有効特徴量を選出することができる。その他の学習アルゴリズムでも同様に、分類結果に対する各特徴量の影響の度合いを相対的にあるいは絶対的に、かつ定量的に示す適当な値を有効度を指標する値として使用することができる。
FIG. 6 is a diagram illustrating an example of a neural network. As a result of learning with the classification categories Y1, Y2, and Y3 given to the feature quantities X1, X2, and X3, the neural network shown in FIG. 5 is constructed, and the weights (W111 to W223) of the branches are given. Of the branch weights thus obtained, a value obtained by adding the absolute values of the branch weights in the first layer on the input layer side for each feature amount can be used as a value indicating the effectiveness. For example, for the feature quantity X1, the sum of the absolute values of the weights W111 and W112 of each branch of the first layer:
W1 = | W111 | + | W112 |
Can be a value indicating the effectiveness of the feature amount X1. Then, by applying the method of FIG. 4 or FIG. 5, an effective feature amount can be selected similarly. Similarly, in other learning algorithms, an appropriate value that indicates the degree of influence of each feature amount on the classification result in a relative or absolute and quantitative manner can be used as a value indicating the effectiveness.

図3に戻って、こうしてm個の特徴量の中からn個の有効特徴量が特定されると、先に取得した欠陥画像について、特定されたn個の有効特徴量に基づいて再学習を行う(ステップS209)。このとき得られた学習データを符号S2により表す。学習データS2については記憶装置510に記憶しておき(ステップS210)、前述した自動欠陥分類処理(図2)において欠陥画像を分類(ステップS104)する際には、記憶装置510に記憶された学習データS2が用いられる。したがって、自動欠陥分類処理における特徴量の算出時(ステップS103)には、n個の有効特徴量のみを算出すればよい。このため、特徴量の算出およびそれに基づく分類作業において使用される特徴量の数が少なくなっており、自動欠陥分類を短時間で効率よく行うことが可能となる。   Returning to FIG. 3, when n effective feature amounts are specified from among the m feature amounts, the re-learning is performed on the previously acquired defect image based on the specified n effective feature amounts. This is performed (step S209). The learning data obtained at this time is represented by reference numeral S2. The learning data S2 is stored in the storage device 510 (step S210), and when the defect image is classified (step S104) in the automatic defect classification process (FIG. 2) described above, the learning data stored in the storage device 510 is stored. Data S2 is used. Therefore, at the time of calculating feature amounts in the automatic defect classification process (step S103), it is only necessary to calculate n effective feature amounts. For this reason, the number of feature quantities used in the calculation of feature quantities and the classification work based thereon is reduced, and automatic defect classification can be performed efficiently in a short time.

次に、この実施形態において、有効特徴量を求める際の「規定割合」を50%に設定した理由について説明する。本願発明者らは、多数の画像サンプルを収集し、それらについて種々の特徴量を算出するとともに、規定割合を多段階に変更設定しながら上記手法により有効特徴量を選出し、特徴量の削減効果および分類精度を検証する実験を行った。   Next, the reason why the “specified ratio” for obtaining the effective feature amount is set to 50% in this embodiment will be described. The inventors of the present application collect a large number of image samples, calculate various feature amounts for them, select effective feature amounts by the above method while changing and setting the specified ratio in multiple stages, and reduce the feature amount An experiment was conducted to verify the classification accuracy.

サンプル画像としては、生物顕微鏡により撮像された生体の組織画像のセットと、半導体検査装置により撮像された欠陥画像のセットとの2種類を用いた。また、特徴量セットとしては、3×3マトリクスを用いた高次局所自己相関特徴量(Texture)、欠陥領域の面積、周囲長、円形度などの欠陥の構造を示す特徴量(Structure)、上記特徴量Textureの3×3マトリクスを用いた高次局所自己相関特徴量を回転等して同じになるものをマージした特徴量(Rotationally Symmetric Texture)、上記特徴量Textureの5×5マトリクスを用いた高次局所自己相関特徴量(Coarse Texture)、および、画像内のオブジェクトの平行移動や回転移動、スケール変化に影響を受けない量であるHuモーメントを特徴量として用意し、これらの中から画像内容に応じて適宜選択した特徴量を用いた。また、学習アルゴリズムとしてはSVM(線形カーネル法)および3層ニューラルネットワークの2種類を使用した。   Two types of sample images were used: a set of biological tissue images captured by a biological microscope and a set of defect images captured by a semiconductor inspection apparatus. In addition, as the feature quantity set, a high-order local autocorrelation feature quantity (Texture) using a 3 × 3 matrix, a feature quantity (Structure) indicating a defect structure such as an area of a defect region, a perimeter, and a circularity, Rotationally Symmetric Texture, which is the result of merging the same high-order local autocorrelation features using a 3 × 3 matrix of feature texture, and a 5 × 5 matrix of the above feature texture Prepare high-order local autocorrelation features (Coarse Texture) and Hu moment, which is an amount that is not affected by parallel movement, rotational movement, and scale change of objects in the image. The feature amount appropriately selected according to the above was used. Two types of learning algorithms, SVM (linear kernel method) and three-layer neural network, were used.

実験では、用意したサンプル画像および特徴量セットを用いて図3に示す処理を実行することで有効特徴量を選出し、有効特徴量に基づく学習により得られた学習データS2からCross-Validationにより分類性能を予測するとともに、選出された有効特徴量の数から特徴量の削減効果を求めた。種々の画像データについて行った実験では概ね類似した結果が見られたので、以下では実験結果の一部の例のみを示す。   In the experiment, the effective feature quantity is selected by executing the processing shown in FIG. 3 using the prepared sample image and feature quantity set, and classified by the Cross-Validation from the learning data S2 obtained by learning based on the effective feature quantity. In addition to predicting performance, the feature reduction effect was determined from the number of selected effective features. Since almost similar results were found in experiments performed on various image data, only a part of the experimental results are shown below.

図7は学習アルゴリズムとしてSVMを用いた場合の実験結果の一例を示す図である。また、図8は学習アルゴリズムとしてニューラルネットワークを用いた場合の実験結果の一例を示す図である。これらの図においては、有効特徴量選出後の分類性能および選出された有効特徴量の数を、特徴量の削減を行わない場合の分類性能および特徴量数を1としてそれぞれ正規化して表示している。   FIG. 7 is a diagram showing an example of an experimental result when SVM is used as a learning algorithm. FIG. 8 is a diagram showing an example of an experimental result when a neural network is used as a learning algorithm. In these figures, the classification performance after the selection of effective features and the number of selected effective features are normalized and displayed with the classification performance and the number of features when the feature amount is not reduced as 1, respectively. Yes.

図7(a)および図8(a)に示すように、いずれの学習アルゴリズムにおいても、規定割合を20%とした場合には分類性能のばらつきが大きくなってしまい、規定割合を50%、80%と大きくするにつれてばらつきは小さくなっている。この点においては、規定割合が大きいほど分類性能は良好であると言える。しかしながら、規定割合が50%の場合と80%の場合とでは、いずれも約100%近い性能が得られており、分類性能およびそのばらつきに大きな差異はないと言うことができる。なお、分類性能が1を超える場合があるが、これは、使用する特徴量の数が増えると分類性能が低下する「次元の呪い」として知られるように、特徴量の削減を行わず全ての特徴量を用いることが必ずしも最良ではなく、影響の少ない特徴量を除外した方が却って分類性能が上がるケースがあることを示唆するものである。   As shown in FIG. 7A and FIG. 8A, in any learning algorithm, when the specified ratio is set to 20%, the variation in the classification performance becomes large, and the specified ratio is set to 50% and 80%. As the percentage increases, the variation decreases. In this respect, it can be said that the larger the specified ratio, the better the classification performance. However, in the cases where the specified ratio is 50% and 80%, the performance is nearly 100%, and it can be said that there is no great difference in the classification performance and its variation. The classification performance may exceed 1, but this is known as a “dimensional curse” in which the classification performance decreases as the number of feature quantities used increases. The use of feature quantities is not necessarily the best, and it is suggested that there are cases where the classification performance is improved by excluding feature quantities with little influence.

一方、図7(b)および図8(b)に示す有効特徴量の数について見ると、規定割合を50%とした場合、これを80%とした場合に比べて有効特徴量の数をさらに半分程度まで削減することが可能となっている。このように、分類性能を維持しつつ、大きな特徴量数の削減効果を得るには、規定割合を50%程度とすることが望ましい。実験条件を種々に変更して実験を行ったが、ほぼ同様の傾向が見られた。   On the other hand, looking at the number of effective feature amounts shown in FIGS. 7B and 8B, when the specified ratio is 50%, the number of effective feature amounts is further increased as compared to the case where the specified ratio is 80%. It is possible to reduce to about half. Thus, in order to obtain a large feature quantity reduction effect while maintaining the classification performance, it is desirable to set the specified ratio to about 50%. Experiments were performed with various experimental conditions changed, and almost the same tendency was observed.

以上より、この実施形態では規定割合を50%として有効特徴量を算出することとしている。こうすることで、この実施形態では、実用上の分類性能を十分に維持しながら、分類に用いる特徴量の数を大きく削減することが可能となっている。そして、このようにして選出された有効特徴量を用いて分類を行うことにより、画像の分類を短時間で効率よく、しかも優れた分類精度で分類することができる。   As described above, in this embodiment, the effective feature amount is calculated with the specified ratio being 50%. In this way, in this embodiment, it is possible to greatly reduce the number of feature quantities used for classification while sufficiently maintaining practical classification performance. Then, by classifying using the effective feature quantity selected in this way, it is possible to classify the image efficiently in a short time and with excellent classification accuracy.

以上説明したように、この実施形態では、図3のステップS206およびS207が本発明の「学習工程」に相当しており、ステップS208および図5の各ステップがいずれも本発明の「有効特徴量選出工程」に相当している。また、上記実施形態では、有効度W(W1,W2等)が本発明の「指標値」に相当している。また、上記実施形態の自動欠陥分類処理(図2)では、ステップS101、S103およびS104がそれぞれ本発明の「画像取得工程」、「特徴量算出工程」および「分類工程」に相当している。また、図1に示す検査システム1においては、撮像装置2が本発明の「画像取得手段」として機能する一方、欠陥分類部503が本発明の「分類手段」として機能している。   As described above, in this embodiment, steps S206 and S207 in FIG. 3 correspond to the “learning process” of the present invention, and each step in step S208 and FIG. This corresponds to the “selection process”. In the above embodiment, the effectiveness W (W1, W2, etc.) corresponds to the “index value” of the present invention. In the automatic defect classification process (FIG. 2) of the above embodiment, steps S101, S103, and S104 correspond to the “image acquisition step”, “feature amount calculation step”, and “classification step” of the present invention, respectively. In the inspection system 1 shown in FIG. 1, the imaging device 2 functions as the “image acquisition unit” of the present invention, and the defect classification unit 503 functions as the “classification unit” of the present invention.

なお、本発明は上記した実施形態に限定されるものではなく、その趣旨を逸脱しない限りにおいて上述したもの以外に種々の変更を行うことが可能である。例えば、上記実施形態では学習アルゴリズムの例としてSVMおよびニューラルネットワークを示しているが、学習アルゴリズムはこれらに限定されるものでなく、公知の各種のアルゴリズムを適用することが可能である。   The present invention is not limited to the above-described embodiment, and various modifications other than those described above can be made without departing from the spirit of the present invention. For example, although the SVM and the neural network are shown as examples of the learning algorithm in the above embodiment, the learning algorithm is not limited to these, and various known algorithms can be applied.

また、上記実施形態では、ホストコンピュータ5上で実行される制御プログラムによりソフトウェア上で各機能ブロックを実現しているが、これらの機能ブロックの少なくとも一部を専用ハードウェアにより実現するようにしてもよい。   In the above embodiment, each functional block is realized on software by a control program executed on the host computer 5, but at least a part of these functional blocks may be realized by dedicated hardware. Good.

また、上記実施形態では、本発明における「規定割合」を50%としているが、この数値に限定されるものではなく、分類対象となる画像の性質やシステムの処理能力に応じて、この値を適宜変更しても構わない。規定割合を小さくすると、特徴量の削減効果は大きいが分類性能が低くなる傾向がある。また、規定割合を大きくすると、特徴量の削減効果は小さくなるが、分類性能は高くなる。ただし、前記したように、特徴量の数を多くすることが必ずしも精度の向上にはつながらないため、特徴量数の削減効果と分類性能とのトレードオフを判断して規定割合を定めることが望ましい。   In the above embodiment, the “specified ratio” in the present invention is 50%. However, the value is not limited to this value, and this value is set according to the property of the image to be classified and the processing capability of the system. You may change suitably. When the specified ratio is reduced, the feature amount reduction effect is large, but the classification performance tends to be low. Also, if the specified ratio is increased, the feature amount reduction effect is reduced, but the classification performance is improved. However, as described above, increasing the number of feature quantities does not necessarily improve the accuracy, so it is desirable to determine the prescribed ratio by judging the trade-off between the feature quantity reduction effect and the classification performance.

また、上記実施形態では、インライン型の検査システムに本発明を適用しているが、リアルタイムの検査機能と、欠陥分類部を学習させるための教示作業を行う機能とを分離させた、いわゆるオフライン型の分類装置にも本発明を適用することが可能である。また、上記検査システム1では「画像取得手段」としての撮像装置2を備えているが、撮像装置を備えず、外部装置や外部記録媒体から画像データを受信して分類を行う検査装置および検査方法にも本発明を適用することが可能である。この場合、外部装置から画像データを受信するインターフェース部やディスクドライブ等が本発明の「画像取得手段」として機能することになる。   In the above embodiment, the present invention is applied to an in-line type inspection system, but a so-called offline type in which a real-time inspection function and a function for performing a teaching operation for learning a defect classification unit are separated. The present invention can also be applied to other classification devices. The inspection system 1 includes the imaging device 2 as an “image acquisition unit”, but does not include the imaging device, and receives and classifies image data from an external device or an external recording medium. The present invention can also be applied to. In this case, an interface unit, a disk drive, or the like that receives image data from an external device functions as the “image acquisition unit” of the present invention.

また、上記実施形態は、半導体の表面外観に現れる欠陥を検査するための装置に本発明を適用しているが、本発明の適用対象はこれに限定されるものではなく、対象物の画像を処理して分類を行う種々の技術に本発明を適用することが可能である。例えば、患者の生体組織から取得した組織画像を画像処理して病理診断支援を行う技術分野にも、本発明を適用することができる。   Moreover, although the said embodiment has applied this invention to the apparatus for inspecting the defect which appears on the surface appearance of a semiconductor, the application object of this invention is not limited to this, The image of a target object is taken. The present invention can be applied to various techniques for processing and classification. For example, the present invention can also be applied to a technical field in which a tissue image acquired from a living tissue of a patient is image-processed to support pathological diagnosis.

この発明は、半導体基板やプリント配線基板などの各種基板の欠陥を検出し分類する技術や病理診断支援技術のような、画像をその特徴量に応じて分類する技術を応用する種々の技術分野に好適に適用することができる。   The present invention is applied to various technical fields to which a technique for classifying images according to their feature quantities, such as a technique for detecting and classifying defects in various substrates such as a semiconductor substrate and a printed wiring board and a pathological diagnosis support technique. It can be suitably applied.

1 検査システム(外観検査装置)
2 撮像装置(画像取得手段)
5 ホストコンピュータ
503 欠陥分類部(分類手段)
S 基板
S101 画像取得工程
S103 特徴量算出工程
S104 分類工程
S206,S207 学習工程
S208 有効特徴量選出工程
Sw (有効度の)総和
Σw (有効度の)累積加算値
W 有効度(指標値)
1 Inspection system (Appearance inspection device)
2 Imaging device (image acquisition means)
5 Host computer 503 Defect classification part (classification means)
S substrate S101 image acquisition step S103 feature amount calculation step S104 classification step S206, S207 learning step S208 effective feature amount selection step Sw (effectiveness) sum Σw (effectiveness) cumulative addition value W effectiveness (index value)

Claims (9)

特徴量に基づき分類を行うための、複数種の特徴量の中から分類結果に与える影響の大きい有効特徴量を選出する特徴量選出方法であって、
前記複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、
前記指標値に基づいて、前記複数種の特徴量の中から前記有効特徴量を選出する有効特徴量選出工程と
を備え、
前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから第N番目(Nは自然数)のものまでを前記有効特徴量として選出し、しかも、前記複数種の特徴量全ての前記指標値の総和に対する前記N個の有効特徴量それぞれの前記指標値の和の割合が、予め定められた規定割合となるようにする
ことを特徴とする、分類のための特徴量選出方法。
A feature quantity selection method for selecting effective feature quantities having a large influence on a classification result from a plurality of types of feature quantities for performing classification based on feature quantities,
A learning step of performing machine learning on the basis of the plurality of types of feature values, and obtaining, from the results, an index value for each feature amount, which is an index of the magnitude of the influence on the classification result between the plurality of types of feature values; ,
An effective feature amount selection step of selecting the effective feature amount from the plurality of types of feature amounts based on the index value;
In the effective feature quantity selection step, the index values of the plurality of types of feature quantities from the highest to the Nth (N is a natural number) are selected as the effective feature quantities, The classification is characterized in that the ratio of the sum of the index values of each of the N effective feature quantities to the sum of the index values of all of the plurality of feature quantities is a predetermined specified ratio. Feature selection method.
特徴量に基づき分類を行うための、複数種の特徴量の中から分類結果に与える影響の大きい有効特徴量を選出する特徴量選出方法であって、
前記複数種の特徴量に基づいて機械学習を行い、その結果から、分類結果に及ぼす影響の大きさを前記複数種の特徴量間で指標とする指標値を各特徴量ごとに求める学習工程と、
前記指標値に基づいて、前記複数種の特徴量の中から前記有効特徴量を選出する有効特徴量選出工程と
を備え、
前記有効特徴量選出工程では、前記複数種の特徴量のうち前記指標値の大きさが最上位のものから順に当該特徴量に対応する前記指標値を累積加算し、該累積加算値が前記複数種の特徴量全ての前記指標値の総和に対して占める割合が予め定められた規定割合に達すると、それまで累積加算した前記指標値に対応する特徴量を前記有効特徴量とする
ことを特徴とする、分類のための特徴量選出方法。
A feature quantity selection method for selecting effective feature quantities having a large influence on a classification result from a plurality of types of feature quantities for performing classification based on feature quantities,
A learning step of performing machine learning on the basis of the plurality of types of feature values, and obtaining, from the results, an index value for each feature amount, which is an index of the magnitude of the influence on the classification result between the plurality of types of feature values; ,
An effective feature amount selection step of selecting the effective feature amount from the plurality of types of feature amounts based on the index value;
In the effective feature quantity selection step, the index values corresponding to the feature quantities are cumulatively added in order from the highest-order index value among the plurality of types of feature quantities, and the cumulative addition values When the proportion of all the feature values of the seeds with respect to the sum of the index values reaches a predetermined specified ratio, the feature amount corresponding to the index value that has been cumulatively added is used as the effective feature amount. A feature selection method for classification.
前記学習工程では、前記複数種の特徴量についてのサポート・ベクタ・マシンに対応する最適化問題を解き、その最適解の値を前記指標値とする請求項1または2に記載の分類のための特徴量選出方法。   The classification process according to claim 1 or 2, wherein in the learning step, an optimization problem corresponding to a support vector machine for the plurality of types of feature quantities is solved, and the value of the optimum solution is used as the index value. Feature selection method. 前記学習工程では、前記複数種の特徴量についてニューラルネットワークを構築し、当該ニューラルネットワークにおける各ニューロンの枝の重みに基づく値を前記指標値とする請求項1または2に記載の分類のための特徴量選出方法。   The characteristic for classification according to claim 1 or 2, wherein in the learning step, a neural network is constructed for the plurality of types of feature quantities, and a value based on a weight of a branch of each neuron in the neural network is used as the index value. Quantity selection method. 前記学習工程では、各ニューロンの枝の重みの絶対値の和を前記指標値とする請求項4に記載の分類のための特徴量選出方法。   5. The feature quantity selection method for classification according to claim 4, wherein in the learning step, a sum of absolute values of branch weights of each neuron is used as the index value. 分類対象となる画像について、請求項1ないし5のいずれかに記載された方法により選出された前記有効特徴量を算出する特徴量算出工程と、
算出された前記有効特徴量に基づき前記画像を分類する分類工程と
を備えることを特徴とする画像の分類方法。
A feature amount calculating step of calculating the effective feature amount selected by the method according to any one of claims 1 to 5 for an image to be classified;
And a classification step of classifying the image based on the calculated effective feature amount.
前記有効特徴量を用いて再学習を行い、該再学習結果に基づき前記分類を行う請求項6に記載の画像の分類方法。   The image classification method according to claim 6, wherein re-learning is performed using the effective feature amount, and the classification is performed based on the re-learning result. 検査対象物の外観を検査する外観検査方法において、
前記検査対象物の外観を撮像した画像を取得する画像取得工程と、
取得した前記画像を、請求項6または7に記載の分類方法により分類する工程と
を備えることを特徴とする外観検査方法。
In an appearance inspection method for inspecting the appearance of an inspection object,
An image acquisition step of acquiring an image obtained by imaging the appearance of the inspection object;
And a step of classifying the acquired image by the classification method according to claim 6 or 7.
検査対象物の外観を撮像した画像を取得する画像取得手段と、
取得した前記画像を、請求項6または7に記載の分類方法により分類する分類手段と
を備えることを特徴とする外観検査装置。
Image acquisition means for acquiring an image obtained by imaging the appearance of the inspection object;
An appearance inspection apparatus comprising: a classifying unit that classifies the acquired image by the classification method according to claim 6.
JP2010217308A 2010-09-28 2010-09-28 Image classification method, appearance inspection method, and appearance inspection apparatus Active JP5637373B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010217308A JP5637373B2 (en) 2010-09-28 2010-09-28 Image classification method, appearance inspection method, and appearance inspection apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010217308A JP5637373B2 (en) 2010-09-28 2010-09-28 Image classification method, appearance inspection method, and appearance inspection apparatus

Publications (2)

Publication Number Publication Date
JP2012073761A true JP2012073761A (en) 2012-04-12
JP5637373B2 JP5637373B2 (en) 2014-12-10

Family

ID=46169878

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010217308A Active JP5637373B2 (en) 2010-09-28 2010-09-28 Image classification method, appearance inspection method, and appearance inspection apparatus

Country Status (1)

Country Link
JP (1) JP5637373B2 (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016109495A (en) * 2014-12-03 2016-06-20 タカノ株式会社 Classifier generation device, appearance inspection device, classifier generation method, and program
JP2017010255A (en) * 2015-06-22 2017-01-12 オリンパス株式会社 Image recognition apparatus and image recognition method
JP2017091278A (en) * 2015-11-11 2017-05-25 国立研究開発法人情報通信研究機構 Learning device, prediction device, learning method, prediction method, and program
JP6280997B1 (en) * 2016-10-31 2018-02-14 株式会社Preferred Networks Disease onset determination device, disease onset determination method, disease feature extraction device, and disease feature extraction method
JP2018506168A (en) * 2014-12-03 2018-03-01 ケーエルエー−テンカー コーポレイション Automatic defect classification without sampling and feature selection
JP2020512631A (en) * 2017-03-14 2020-04-23 トゥプル,インコーポレイテッド Automated decision making using stepwise machine learning
WO2021240664A1 (en) * 2020-05-26 2021-12-02 富士通株式会社 Model training program, model training method, and information processing device
JP7427328B2 (en) 2020-01-24 2024-02-05 Jrcモビリティ株式会社 Feature evaluation device and evaluation device method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04222064A (en) * 1990-12-25 1992-08-12 Matsushita Electric Ind Co Ltd Method for inspecting appearance
JPH08314880A (en) * 1995-05-15 1996-11-29 Omron Corp Method for learning neural network and neural network system
JP2002174603A (en) * 2000-12-08 2002-06-21 Olympus Optical Co Ltd Defect classifying method
JP2008524675A (en) * 2004-12-17 2008-07-10 ザ ユニバーシティー オブ クイーンズランド Feature reduction method for classifier

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04222064A (en) * 1990-12-25 1992-08-12 Matsushita Electric Ind Co Ltd Method for inspecting appearance
JPH08314880A (en) * 1995-05-15 1996-11-29 Omron Corp Method for learning neural network and neural network system
JP2002174603A (en) * 2000-12-08 2002-06-21 Olympus Optical Co Ltd Defect classifying method
JP2008524675A (en) * 2004-12-17 2008-07-10 ザ ユニバーシティー オブ クイーンズランド Feature reduction method for classifier

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
余部治昭 外1名: "FIT2006 第5回情報科学技術フォーラム 一般講演論文集 第3分冊 画像認識・メディア理解 グラ", FIT2006 第5回情報科学技術フォーラム, JPN6014005458, 21 August 2006 (2006-08-21), JP, pages 79 - 80, ISSN: 0002743714 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018506168A (en) * 2014-12-03 2018-03-01 ケーエルエー−テンカー コーポレイション Automatic defect classification without sampling and feature selection
JP2016109495A (en) * 2014-12-03 2016-06-20 タカノ株式会社 Classifier generation device, appearance inspection device, classifier generation method, and program
JP2017010255A (en) * 2015-06-22 2017-01-12 オリンパス株式会社 Image recognition apparatus and image recognition method
JP2017091278A (en) * 2015-11-11 2017-05-25 国立研究開発法人情報通信研究機構 Learning device, prediction device, learning method, prediction method, and program
JP2018077814A (en) * 2016-10-31 2018-05-17 株式会社Preferred Networks Affection determination device for disease, affection determination method for disease, feature extraction device for disease, and feature extraction method for disease
WO2018079840A1 (en) * 2016-10-31 2018-05-03 株式会社Preferred Networks Disease development determination device, disease development determination method, and disease development determination program
JP6280997B1 (en) * 2016-10-31 2018-02-14 株式会社Preferred Networks Disease onset determination device, disease onset determination method, disease feature extraction device, and disease feature extraction method
JPWO2018079840A1 (en) * 2016-10-31 2019-09-19 株式会社Preferred Networks Disease determination apparatus, disease determination method, and disease determination program
JP7021097B2 (en) 2016-10-31 2022-02-16 株式会社Preferred Networks Disease morbidity determination device, disease morbidity determination method and disease morbidity determination program
JP2020512631A (en) * 2017-03-14 2020-04-23 トゥプル,インコーポレイテッド Automated decision making using stepwise machine learning
JP7195264B2 (en) 2017-03-14 2022-12-23 トゥプル,インコーポレイテッド Automated decision-making using step-by-step machine learning
JP7427328B2 (en) 2020-01-24 2024-02-05 Jrcモビリティ株式会社 Feature evaluation device and evaluation device method
WO2021240664A1 (en) * 2020-05-26 2021-12-02 富士通株式会社 Model training program, model training method, and information processing device
JP7396478B2 (en) 2020-05-26 2023-12-12 富士通株式会社 Model training program, model training method, and information processing device

Also Published As

Publication number Publication date
JP5637373B2 (en) 2014-12-10

Similar Documents

Publication Publication Date Title
JP5637373B2 (en) Image classification method, appearance inspection method, and appearance inspection apparatus
US11580640B2 (en) Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks
Nketia et al. Analysis of live cell images: Methods, tools and opportunities
JP5174040B2 (en) Computer-implemented method for distinguishing between image components and background and system for distinguishing between image components and background
CN110245657B (en) Pathological image similarity detection method and detection device
JP5783043B2 (en) Cell mass state discrimination technique, image processing program and image processing apparatus using the technique, and cell mass production method
JP2021503666A (en) Systems and methods for single-channel whole-cell segmentation
WO2010146802A1 (en) State determination method for cell cluster, image processing program and imaging processing device using said method, and method for producing cell cluster
JP2011158373A (en) Method for creation of teacher data for use in automatic defect classification, and method and apparatus for automatic defect classification
JP5718781B2 (en) Image classification apparatus and image classification method
JP2016040650A (en) Classifier construction method, image classifying method, and image classifying device
WO2020037573A1 (en) Method and device for detecting bright spots on image, and computer program product
JP2016191589A (en) Defect classification device defect classification method
CN112215217B (en) Digital image recognition method and device for simulating doctor to read film
JP2023513022A (en) Systematic Characterization of Objects in Biological Samples
JP2014137284A (en) Teacher data creation support device, teacher data creation device, image classification device, teacher data creation support method, teacher data creation method and image classification method
TW202324175A (en) Defect detection system
CN115439456A (en) Method and device for detecting and identifying object in pathological image
CN112862706A (en) Pavement crack image preprocessing method and device, electronic equipment and storage medium
WO2019181072A1 (en) Image processing method, computer program, and recording medium
CN115880266A (en) Intestinal polyp detection system and method based on deep learning
JP2019023621A (en) Display control device, display control method, and program
Ji et al. Considerations for data acquisition and modeling strategies: Mitosis detection in computational pathology
Rifkin Identifying fluorescently labeled single molecules in image stacks using machine learning
WO2013038225A1 (en) Methods and apparatus for image analysis and modification using fast sliding parabola erosion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140410

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141008

R150 Certificate of patent or registration of utility model

Ref document number: 5637373

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250