JP6161256B2 - Image analysis support apparatus and method - Google Patents

Image analysis support apparatus and method Download PDF

Info

Publication number
JP6161256B2
JP6161256B2 JP2012245916A JP2012245916A JP6161256B2 JP 6161256 B2 JP6161256 B2 JP 6161256B2 JP 2012245916 A JP2012245916 A JP 2012245916A JP 2012245916 A JP2012245916 A JP 2012245916A JP 6161256 B2 JP6161256 B2 JP 6161256B2
Authority
JP
Japan
Prior art keywords
image
data
target data
coordinate points
evaluation value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012245916A
Other languages
Japanese (ja)
Other versions
JP2014095961A (en
Inventor
美道 佐藤
美道 佐藤
安部 雄一
雄一 安部
池田 光二
光二 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Technologies Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Technologies Corp filed Critical Hitachi High Technologies Corp
Priority to JP2012245916A priority Critical patent/JP6161256B2/en
Publication of JP2014095961A publication Critical patent/JP2014095961A/en
Application granted granted Critical
Publication of JP6161256B2 publication Critical patent/JP6161256B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、画像分析支援装置及び方法に関する。   The present invention relates to an image analysis support apparatus and method.

現在、画像処理技術は、様々な技術分野に応用されている。例えば半導体の製造分野では検査装置や計測装置に、医用分野では診断装置や分析装置に応用されている。これらの装置では、電子顕微鏡で撮影した画像、X線で撮影した画像、又は光学カメラで取得した画像から欠陥部位や計測すべき部位を自動的に抽出・特定する目的で画像処理技術が使用される。   Currently, image processing technology is applied in various technical fields. For example, it is applied to inspection devices and measuring devices in the semiconductor manufacturing field, and to diagnostic devices and analysis devices in the medical field. In these apparatuses, image processing technology is used for the purpose of automatically extracting and specifying a defective part or a part to be measured from an image taken with an electron microscope, an image taken with an X-ray, or an image obtained with an optical camera. The

しかし、画像の特性や特定しようとする部位の特性に応じて画像処理アルゴリズムを構築し最適化することは一般に容易でない。実際、この種の画像処理アルゴリズムで使用するパラメータの数値や処理関数の組み合せの最適化には、多くの画像サンプルを対象とした検証作業が必要であり、検証作業に対するオペレータの熟練も必要とする。   However, it is generally not easy to construct and optimize an image processing algorithm according to the characteristics of the image and the characteristics of the part to be specified. In fact, to optimize the combination of parameter values and processing functions used in this kind of image processing algorithm, verification work for many image samples is required, and operator skill for verification work is also required. .

これらの問題の改善のため、例えば特許文献1には、画像を抽出すべき領域を指定し、ニューラルネットワークを適用する方法が示されている。また、特許文献2には、教示用画像を生成する方法と、遺伝的アルゴリズムによる画像処理アルゴリズムの自動的最適化方法が示されている。   In order to improve these problems, for example, Patent Document 1 discloses a method of specifying a region where an image is to be extracted and applying a neural network. Patent Document 2 discloses a method for generating a teaching image and an automatic optimization method for an image processing algorithm using a genetic algorithm.

特開2000−339463号公報JP 2000-339463 A 特開2006−337152号公報JP 2006-337152 A

特許文献1には、所望の領域を指定する方法として、領域の中心点などの代表点を用いることが示されているが、良好な抽出結果が前もって得られていない場合、領域の中心点の位置情報を用意することは必ずしも容易でない。しかも、それらの位置精度が常に重要であるとは限らない。特に、この方法は、新規の対象について画像処理アルゴリズムを最適化したい場合に問題がある。   Patent Document 1 shows that a representative point such as a center point of a region is used as a method for designating a desired region. However, if a good extraction result is not obtained in advance, the center point of a region is indicated. It is not always easy to prepare position information. Moreover, their positional accuracy is not always important. This method is particularly problematic when it is desired to optimize the image processing algorithm for a new object.

一方、特許文献2は、適切な目標画像を用意する方法が明確でない。また、画像処理アルゴリズムの評価値に目標画像との差分値を用いる方法は、一般に目標画像を用意するコストが問題になる。その上、適切な目標画像の作成は一般に容易でない。さらに、作成した目標画像が適切でないと、面積や形状の微小な違いだけで評価値が低下してしまう。また例えば微小な違いを無視する設定の場合、微小な部位を評価することができない。また、アルゴリズムを不適切な目標画像に無理に近づけようとすれば、画像処理に無駄な処理が生じる可能性もある。   On the other hand, in Patent Document 2, a method for preparing an appropriate target image is not clear. In addition, the method of using the difference value from the target image as the evaluation value of the image processing algorithm generally has a problem of preparing the target image. Moreover, it is generally not easy to create a suitable target image. Further, if the created target image is not appropriate, the evaluation value is lowered only by a small difference in area and shape. In addition, for example, in the case of setting that ignores a minute difference, a minute part cannot be evaluated. Further, if the algorithm is forced to approach an inappropriate target image, there is a possibility that useless processing will occur in image processing.

本発明は、以上の状況を考慮してなされたもので、結果データの評価に使用する目標の作成が容易で、画像処理アルゴリズムの自動最適化が可能な画像分析支援装置及び方法を提供する。   The present invention has been made in consideration of the above situation, and provides an image analysis support apparatus and method which can easily create a target used for evaluation of result data and can automatically optimize an image processing algorithm.

本発明に係る画像分析支援装置は、入力された画像データに所定の画像処理アルゴリズムを適用し、結果データを出力する候補抽出部と、結果データの評価に使用する目標データを、前記目標データの設定用に入力された前記画像データに対応する画像上の座標点として受け付ける目標データ設定部と、結果データと目標データを論理演算的に比較し、目標データとの合致度が高い結果データほど高評価値を算出する比較評価部と、評価値に基いて、画像処理アルゴリズムの設定値を自動的に決定する自動最適化部とを有する。   An image analysis support apparatus according to the present invention applies a predetermined image processing algorithm to input image data and outputs a result data, and target data used for evaluation of the result data are set to the target data. The target data setting unit that accepts as coordinate points on the image corresponding to the image data input for setting, and the result data and target data are logically compared, and the result data having a higher degree of match with the target data is higher. A comparison evaluation unit that calculates an evaluation value and an automatic optimization unit that automatically determines a setting value of an image processing algorithm based on the evaluation value.

本発明によれば、画像処理アルゴリズムの開発や調整のコストを抑制することができ、検査精度及び計測精度を安定させることができる。前述した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   According to the present invention, the cost of development and adjustment of an image processing algorithm can be suppressed, and inspection accuracy and measurement accuracy can be stabilized. Problems, configurations, and effects other than those described above will become apparent from the following description of embodiments.

実施例に係る画像分析支援装置の機能構成を示す図。The figure which shows the function structure of the image analysis assistance apparatus which concerns on an Example. 実施例に係る目標データ設定部としてのキーボード、マウス、ディスプレイ、スタイラスペンを示す図。The figure which shows the keyboard, mouse | mouth, display, and stylus pen as a target data setting part which concerns on an Example. サンプル画像に対する目標データの指定例を説明する図。The figure explaining the example of designation | designated of the target data with respect to a sample image. 結果データの画像例を示す図。The figure which shows the example of an image of result data. 結果データの評価分類例を示す図(座標点間のリンクによる評価)。The figure which shows the example of evaluation classification of result data (evaluation by the link between coordinate points). 結果データの評価分類例を示す図(座標点間のリンクによる評価)。The figure which shows the example of evaluation classification of result data (evaluation by the link between coordinate points). 結果データの評価分類例を示す図(座標点間のリンクによる評価)。The figure which shows the example of evaluation classification of result data (evaluation by the link between coordinate points). 結果データの評価分類例を示す図(座標点間のリンクによる評価)。The figure which shows the example of evaluation classification of result data (evaluation by the link between coordinate points). 結果データの評価分類例を示す図(座標点間のリンクによる評価)。The figure which shows the example of evaluation classification of result data (evaluation by the link between coordinate points). 結果データの評価分類例を示す図(座標点間のリンクによる評価)。The figure which shows the example of evaluation classification of result data (evaluation by the link between coordinate points). 対象があいまいなサンプル画像例を示す図。The figure which shows the sample image example whose object is ambiguous. 対象があいまいなサンプル画像例に対する目標データの指定例を示す図。The figure which shows the example of designation | designated of the target data with respect to the sample image example whose object is ambiguous. 結果データの評価分類例を示す図(座標点の数による評価)。The figure which shows the evaluation classification example of result data (evaluation by the number of coordinate points). 結果データの評価分類例を示す図(座標点の数による評価)。The figure which shows the evaluation classification example of result data (evaluation by the number of coordinate points). 対象があいまいなサンプル画像例に対する目標データの別の設定例を示す図。The figure which shows another example of a setting of the target data with respect to the sample image example whose object is ambiguous. 結果データの評価分類例を示す図(面積による評価)。The figure which shows the evaluation classification example of result data (evaluation by an area). 実施例1の他のサンプル画像例を示す図。FIG. 6 is a diagram illustrating another sample image example according to the first embodiment. 抽出対象とする部位を囲む目標データの指定例を示す図。The figure which shows the example of designation | designated of the target data surrounding the site | part made into extraction object. 抽出対象とする部位を囲む目標データの指定例を示す図。The figure which shows the example of designation | designated of the target data surrounding the site | part made into extraction object. 抽出対象とする部位を囲む目標データの設定例を示す図。The figure which shows the example of a setting of the target data surrounding the site | part made into extraction object. 抽出対象とする部位を囲む目標データの設定例を示す図。The figure which shows the example of a setting of the target data surrounding the site | part made into extraction object. 抽出対象とする部位を囲む目標データの設定例を示す図。The figure which shows the example of a setting of the target data surrounding the site | part made into extraction object. 候補抽出部が有する処理機能例を示す図。The figure which shows the process function example which a candidate extraction part has. 候補抽出部の第1の処理構成例を示す図。The figure which shows the 1st process structural example of a candidate extraction part. 候補抽出部の第2の処理構成例を示す図。The figure which shows the 2nd process structural example of a candidate extraction part. 自動最適化部の処理手順例を示すフローチャート。The flowchart which shows the process sequence example of an automatic optimization part. 実施例2で使用するテンプレート画像を示す図。FIG. 10 is a diagram illustrating a template image used in the second embodiment. サンプル画像に対する目標データの指定例を説明する図。The figure explaining the example of designation | designated of the target data with respect to a sample image. 座標点に対する許容範囲円の設定例を説明する図。The figure explaining the example of a setting of the tolerance | permissible_range circle | round | yen with respect to a coordinate point. 座標点間のリンク関係を説明する図。The figure explaining the link relation between coordinate points. 座標点間のリンク関係を説明する図。The figure explaining the link relation between coordinate points. 対象が二重にずれている場合の座標点に対する許容範囲の設定例を示す図。The figure which shows the example of a setting of the tolerance | permissible_range with respect to a coordinate point in case the object has shifted | deviated doubly. 対象が二重にずれている場合の座標点に対する許容範囲の設定例を示す図。The figure which shows the example of a setting of the tolerance | permissible_range with respect to a coordinate point in case the object has shifted | deviated doubly.

以下、図面に基づいて、本発明の実施の形態を説明する。なお、後述する実施の形態は例示として示すものであり、各実施例の内容に発明を限定して解釈すべきでない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. In addition, embodiment mentioned later is shown as an illustration and should not be interpreted limiting the invention to the contents of each example.

[実施例1]
本実施例では、製造物(例えば半導体ウェハ)を撮像した画像から、製造物に付着した異物やキズ又は製造欠陥部分を抽出する画像分析支援装置について説明する。
[Example 1]
In this embodiment, an image analysis support apparatus that extracts foreign matter, scratches, or manufacturing defect portions attached to a product from an image obtained by imaging the product (for example, a semiconductor wafer) will be described.

[装置構成]
図1に、実施例に係る画像分析支援装置の構成を示す。画像分析支援装置100は、目標データ設定部101、比較評価部103、撮像部104、候補抽出部106、自動最適化部108で構成される。このうち、撮像部104と候補抽出部106は画像分析に使用され、目標設定部101、比較評価部103、自動最適化部108は画像処理アルゴリズムの自動最適化時に使用される。
[Device configuration]
FIG. 1 shows a configuration of an image analysis support apparatus according to the embodiment. The image analysis support apparatus 100 includes a target data setting unit 101, a comparative evaluation unit 103, an imaging unit 104, a candidate extraction unit 106, and an automatic optimization unit 108. Among these, the imaging unit 104 and the candidate extraction unit 106 are used for image analysis, and the target setting unit 101, the comparative evaluation unit 103, and the automatic optimization unit 108 are used for automatic optimization of the image processing algorithm.

撮像部104は、検査対象物の画像を撮像するデバイスである。撮像部104は、例えば電子顕微鏡、光学顕微鏡、X線撮影装置又はCMOSセンサカメラ等であり、設定データ109により感度、露光時間、歪み補正などが調整される。撮像部104は、分析時だけでなく、目標データ102の作成時にも使用される。撮像部104は、画像データ105を出力する。画像データ105は、不図示のハードディク、メモリその他の記憶装置に格納される。   The imaging unit 104 is a device that captures an image of an inspection target. The imaging unit 104 is, for example, an electron microscope, an optical microscope, an X-ray imaging apparatus, a CMOS sensor camera, or the like, and sensitivity, exposure time, distortion correction, and the like are adjusted by setting data 109. The imaging unit 104 is used not only at the time of analysis but also at the time of creating the target data 102. The imaging unit 104 outputs image data 105. The image data 105 is stored in a hard disk, memory, or other storage device (not shown).

候補抽出部106は、設定データ109で設定された画像処理アルゴリズムに従い、画像データ105から候補領域を抽出し、抽出された候補領域の画像を結果データ107として出力する。なお、後述する実施例のように、座標情報を結果データ107として出力することもできる。撮像部104や画像処理アルゴリズムのパラメータ等は、設定データ109に基づいて調整される。   The candidate extraction unit 106 extracts candidate areas from the image data 105 according to the image processing algorithm set in the setting data 109, and outputs the extracted images of the candidate areas as result data 107. Note that the coordinate information can also be output as the result data 107 as in an embodiment described later. The parameters of the imaging unit 104 and the image processing algorithm are adjusted based on the setting data 109.

目標データ設定部101は、目標データ102の作成に使用される。目標データ102は、候補抽出部106から出力される結果データ107の評価用に用意されるデータであり、例えば検査対象物から抽出させたい部位に含まれる座標点の位置情報を含む。目標データ102は、その設定用に入力された画像データについて設定される。なお、目標データ設定部101は、指定された座標点が満たすべき関係や条件(例えば複数の座標点間の関係、特定の領域との関係・条件等)の入力にも使用される。   The target data setting unit 101 is used to create target data 102. The target data 102 is data prepared for evaluation of the result data 107 output from the candidate extraction unit 106, and includes, for example, position information of coordinate points included in a part to be extracted from the inspection target. The target data 102 is set for the image data input for the setting. Note that the target data setting unit 101 is also used to input relationships and conditions to be satisfied by designated coordinate points (for example, relationships between a plurality of coordinate points, relationships / conditions with a specific region, etc.).

比較評価部103は、目標データ102と結果データ107の比較結果を評価値110として出力する。評価値110は、候補抽出部106の画像処理アルゴリズムを評価するために使用される。比較評価部103は、目標データ102と結果データ107が評価条件に合致するほど高い値の評価値110を出力する。   The comparative evaluation unit 103 outputs a comparison result between the target data 102 and the result data 107 as an evaluation value 110. The evaluation value 110 is used to evaluate the image processing algorithm of the candidate extraction unit 106. The comparative evaluation unit 103 outputs an evaluation value 110 having a higher value as the target data 102 and the result data 107 match the evaluation condition.

自動最適化部108は、評価値110を比較評価部103から入力する。自動最適化部108は、評価値110が所定のしきい値未満のとき設定データ109を変更し、評価値が所定のしきい値以上のとき設定データ109を最終結果とする。この設定データ109の変更により、候補抽出部106の画像処理アルゴリズムや撮像部104のパラメータが最適化される。   The automatic optimization unit 108 inputs the evaluation value 110 from the comparative evaluation unit 103. The automatic optimization unit 108 changes the setting data 109 when the evaluation value 110 is less than a predetermined threshold value, and sets the setting data 109 as a final result when the evaluation value is equal to or greater than the predetermined threshold value. By changing the setting data 109, the image processing algorithm of the candidate extraction unit 106 and the parameters of the imaging unit 104 are optimized.

他の構成要素は、例えばマイクロプロセッサ、ハードディク、メモリ、ディスプレイ等で構成されたコンピュータやプログラムで実現される。   The other components are realized by a computer or a program constituted by, for example, a microprocessor, a hard disk, a memory, a display, and the like.

[目標データ設定部の詳細構成]
図2に、目標データ設定部101の詳細構成を示す。図2は、目標データ設定部101の具体的な構成例を示す。キーボード201は、座標を数値で入力する際に使用する。マウス202やスタイラスペン204は、ディスプレイ203に表示された画面上で画像データ内の座標点を指定する際に使用される。マウス202やスタイラスペン204は、一般にポインティングデバイスと呼ばれる。ポインティングデバイスには、他にトラックボールやタッチパッドなども含まれる。
[Detailed configuration of target data setting section]
FIG. 2 shows a detailed configuration of the target data setting unit 101. FIG. 2 shows a specific configuration example of the target data setting unit 101. The keyboard 201 is used when inputting coordinates numerically. The mouse 202 and the stylus pen 204 are used when designating coordinate points in the image data on the screen displayed on the display 203. The mouse 202 and the stylus pen 204 are generally called a pointing device. Other pointing devices include trackballs and touchpads.

[サンプル画像と目標データの設定例]
図3は、ディスプレイ203の画面上で目標データ102を設定する際の操作の様子を示している。目標データ102は、候補抽出部106の画像処理アルゴリズムが、期待通りの領域を画像データ105から自動的に抽出するものとなるように、設定データ109を最適化するためにオペレータが用意する。画面のウィンドウ内には、製造物検査のためのサンプル画像301とオペレータが設定した座標点が表示されている。サンプル画像301は、画像データ105の表示例である。図3の例では、製造物の表面に異物302が付着しており、製造欠陥部303と、2つのキズ307、308も存在する。
[Sample image and target data setting example]
FIG. 3 shows the operation when setting the target data 102 on the screen of the display 203. The target data 102 is prepared by an operator to optimize the setting data 109 so that the image processing algorithm of the candidate extraction unit 106 automatically extracts an expected area from the image data 105. In the window of the screen, a sample image 301 for product inspection and coordinate points set by the operator are displayed. A sample image 301 is a display example of the image data 105. In the example of FIG. 3, the foreign matter 302 is attached to the surface of the product, and the manufacturing defect portion 303 and two scratches 307 and 308 also exist.

本実施例の場合、オペレータは、スタイラスペン204を用い、異物302、欠陥部303、キズ307、308内の座標点を指定することにより、目標データ102を設定する。座標点304は異物302に対応させてオペレータが指定した座標点を示し、座標点305と座標点306は欠陥部303に対応させてオペレータが指定した座標点を示している。本実施例の場合、これらの座標点に「×」のマークを付けている。「×」のマークが付された複数の座標点305と306が線分で接続されている場合、連結された複数の座標点が一つの領域内に同時に抽出されるべきことを示している。すなわち、連結された複数の座標点が同じグループにラベリングされた領域内に存在すべきことを示している。一方、線分で接続されていない座標点304は、他の座標点とは独立した孤立領域の抽出に使用されることを示している。   In the case of the present embodiment, the operator uses the stylus pen 204 to set the target data 102 by designating coordinate points in the foreign matter 302, the defective portion 303, and the scratches 307 and 308. A coordinate point 304 indicates a coordinate point designated by the operator in correspondence with the foreign object 302, and a coordinate point 305 and a coordinate point 306 indicate coordinate points designated by the operator in correspondence with the defect portion 303. In this embodiment, these coordinate points are marked with “x”. When a plurality of coordinate points 305 and 306 marked with “x” are connected by a line segment, it indicates that the plurality of coordinate points connected should be extracted simultaneously in one region. That is, it indicates that a plurality of coordinate points that are connected should exist in an area labeled in the same group. On the other hand, the coordinate points 304 that are not connected by line segments indicate that they are used for extraction of isolated regions independent of other coordinate points.

座標点309〜311はキズ307に対応し、座標点312〜314はキズ308に対応する。本実施例の場合、これらの座標点309〜314に、「+」のマークを付けている。このうち、線分で接続された複数の座標点309〜311又は312〜314は、これらのうち1つ以上の座標点を含む領域を抽出させることを示している。なお、座標点309〜311が指定されたグループと座標点312〜314が指定されたグループの間に接続は無く別グループである。このことは、両グループをそれぞれ異なる領域として抽出させることを示している。   The coordinate points 309 to 311 correspond to the scratch 307, and the coordinate points 312 to 314 correspond to the scratch 308. In this embodiment, these coordinate points 309 to 314 are marked with “+”. Among these, a plurality of coordinate points 309 to 311 or 312 to 314 connected by line segments indicate that an area including one or more coordinate points is extracted. Note that there is no connection between the group in which the coordinate points 309 to 311 are designated and the group in which the coordinate points 312 to 314 are designated, and is a different group. This indicates that both groups are extracted as different regions.

なお、「×」と「+」の区別やグループ指定を示す接続線の描画は、ウィンドウ上部のメニューで選択してもよいし、キーボード201で選択してもよい。   Note that the distinction between “x” and “+” and the drawing of a connection line indicating group designation may be selected from the menu at the top of the window or may be selected from the keyboard 201.

本実施例での具体的な目標データ102の内容は、「×」(座標点304)、「×」(座標点305,座標点306)、「+」(座標点309,座標点310,座標点311)、「+」(座標点312,座標点313,座標点314)のように表現できる。   Specific contents of the target data 102 in this embodiment are “×” (coordinate point 304), “×” (coordinate point 305, coordinate point 306), “+” (coordinate point 309, coordinate point 310, coordinate Point 311), “+” (coordinate point 312, coordinate point 313, coordinate point 314).

また、各座標にグループを区別する番号を割り当てて、(座標点304,×0)、(座標点305,×1)、(座標点306,×1)、(座標点309,+0)、(座標点310,+0)、(座標点311,+0)、(座標点312,+1)、(座標点313,+1)、(座標点314,+1)のように表現することもできる。   Also, a number for distinguishing the group is assigned to each coordinate, and (coordinate point 304, x0), (coordinate point 305, x1), (coordinate point 306, x1), (coordinate point 309, +0), ( Coordinate points 310, +0), (coordinate points 311, +0), (coordinate points 312, +1), (coordinate points 313, +1), and (coordinate points 314, +1) can also be expressed.

ごく小さい異物の場合など、スタイラスペンでは精度よく座標を指定し難い場合に備え、キーボード201から文字入力ボックス320に座標値を直接入力しても良い。   Coordinate values may be directly input from the keyboard 201 to the character input box 320 in case the coordinates are difficult to specify with a stylus pen, such as in the case of a very small foreign object.

なお、目標データ102は、自動最適化部108による処理が開始される前に用意できれば良く、自動最適化処理を実行する装置とは別装置に内蔵されていても良い。また、既存の調整済み装置などでサンプル画像301に対する良好な結果データ107が事前に得られている場合には、その結果データ107を変換して目標データ102を作成しても良い。   The target data 102 only needs to be prepared before processing by the automatic optimization unit 108 is started, and may be built in a device different from the device that executes the automatic optimization processing. Further, when good result data 107 for the sample image 301 is obtained in advance by an existing adjusted apparatus or the like, the result data 107 may be converted to create the target data 102.

[結果データの画像例]
図4に、サンプル画像301に対応する結果データ107の画像401の例を示す。画像401は、サンプル画像301に対応する画像データ105を入力した候補抽出部106から出力される処理結果である。画像401では、候補領域402、403、404、405、406が抽出部位として出力されている。これらの領域は図中、網掛けで示す。図4では、目標データ102との関係を分かり易く示すために、目標データ102として指定された座標点304〜306や座標点309〜314も示している。
[Example image of result data]
FIG. 4 shows an example of the image 401 of the result data 107 corresponding to the sample image 301. An image 401 is a processing result output from the candidate extraction unit 106 that has received the image data 105 corresponding to the sample image 301. In the image 401, candidate areas 402, 403, 404, 405, and 406 are output as extraction parts. These areas are shaded in the figure. In FIG. 4, coordinate points 304 to 306 and coordinate points 309 to 314 designated as the target data 102 are also shown for easy understanding of the relationship with the target data 102.

候補領域402は座標点304を内部に含む一方、他の座標点は含んでいない。この意味で、候補領域402は、期待どおりの抽出結果である。候補領域403は目標データ102のいずれの座標点も含まない独立領域であり、期待されない誤った抽出結果である。候補領域404は座標点306を内部に含んでいるが、同じ領域内に同時に含まれるべき座標点305を含んでおらず、不十分な抽出結果である。候補領域405は座標点309を内部に含んでいないが、「+」のマークが付された2つの座標点310と座標点311を含んでおり、十分に期待通りの抽出結果である。候補領域406は「+」のマークが付された3つの座標点312〜314を内部に含んでおり、期待通りの抽出結果である。   Candidate area 402 includes coordinate point 304 inside, but does not include other coordinate points. In this sense, the candidate area 402 is an extraction result as expected. The candidate area 403 is an independent area that does not include any coordinate point of the target data 102, and is an unexpected erroneous extraction result. The candidate area 404 includes the coordinate point 306 inside, but does not include the coordinate point 305 that should be included at the same time in the same area, which is an insufficient extraction result. The candidate area 405 does not include the coordinate point 309 inside, but includes the two coordinate points 310 and 311 marked with “+”, and the extraction result is sufficiently as expected. The candidate area 406 includes three coordinate points 312 to 314 marked with “+” inside, and is an extraction result as expected.

[比較評価部103の評価例]
比較評価部103は、このような結果データ107の画像401の状況を数値により評価する。以下に、その方法の一例を説明する。
[Evaluation example of comparative evaluation unit 103]
The comparative evaluation unit 103 evaluates the situation of the image 401 of the result data 107 by a numerical value. An example of the method will be described below.

目標データ102の座標点の数をm、結果データ107の画像401で抽出された候補領域の数をnとするとき、比較評価部103は、評価値110を例えば以下の式で計算する。   When the number of coordinate points of the target data 102 is m and the number of candidate areas extracted from the image 401 of the result data 107 is n, the comparative evaluation unit 103 calculates the evaluation value 110 by the following formula, for example.

評価値=(m−期待に合致しなかった座標点の数)×(n−期待に合致しなかった候補領域の数)/(m×n) Evaluation value = (m−number of coordinate points not meeting expectations) × (n−number of candidate areas not meeting expectations) / (m × n)

評価値110は0〜1の値をとり、結果データ107が目標データ102で示す期待に論理的に合致するほど大きな値となる。図4の例では、目標データ102の座標点の数は9、抽出された候補領域の数は5、座標点305が期待と合致せず、候補領域403と候補領域404が期待に合致していない。このため、評価値110は、(9−1)×(5−2)/(9×5)≒0.53で与えられる。   The evaluation value 110 takes a value from 0 to 1, and becomes larger as the result data 107 logically matches the expectation indicated by the target data 102. In the example of FIG. 4, the number of coordinate points of the target data 102 is 9, the number of extracted candidate regions is 5, the coordinate point 305 does not match the expectation, and the candidate region 403 and the candidate region 404 match the expectation. Absent. For this reason, the evaluation value 110 is given by (9-1) × (5-2) / (9 × 5) ≈0.53.

この評価値の算出方法は基本的概念を示す一例であり、候補領域の形状や面積、目標データ102で指定された座標点との位置関係や距離、候補抽出部106の処理時間などを加味して算出しても良い。   This calculation method of the evaluation value is an example showing a basic concept, taking into consideration the shape and area of the candidate area, the positional relationship and distance from the coordinate point specified by the target data 102, the processing time of the candidate extraction unit 106, and the like. May be calculated.

なお、評価値は、画像データ105と目標データ102の組を複数用意して算出することが望ましい。その場合、評価値110には、用意した複数組の画像データ105と目標データ102について算出された評価値の平均値を用いることができる。すなわち、サンプル画像データ数をN、サンプルkについての評価値をVkとするとき、比較評価部103は、評価値110を例えば以下の式で計算する。   The evaluation value is preferably calculated by preparing a plurality of sets of the image data 105 and the target data 102. In that case, as the evaluation value 110, an average value of evaluation values calculated for a plurality of sets of prepared image data 105 and target data 102 can be used. That is, when the number of sample image data is N and the evaluation value for the sample k is Vk, the comparative evaluation unit 103 calculates the evaluation value 110 by the following equation, for example.

(全サンプルについての評価値)=(ΣVk)/N
(ここで、k=1、2、…N)
(Evaluation value for all samples) = (ΣVk) / N
(Where k = 1, 2,... N)

以下、「×」と「+」のマークが付された複数の座標点についてグループが設定されている場合(線分で接続されている場合)の論理条件の違いを、図5〜図10を用いて詳しく説明する。   Hereinafter, the difference in logical conditions when a group is set for a plurality of coordinate points marked with “×” and “+” (when connected by line segments) will be described with reference to FIGS. Detailed description will be made using this method.

このうち、「×」のマーク同士で一つのグループが指定された複数の座標点は、これら全ての座標点を含む候補領域が連結された一つの領域として抽出されることを結果データ107に期待する。また、同一のグループに指定されていない他の座標点とは独立した孤立領域として抽出させることを期待する。   Of these, a plurality of coordinate points for which one group is designated among the “x” marks are expected in the result data 107 to be extracted as one region in which candidate regions including all these coordinate points are connected. To do. In addition, it is expected to be extracted as an isolated region independent of other coordinate points not designated in the same group.

図5は、目標データ102で、「×」マークが付された2つの座標点が異なるグループに含まれるものと指定されている場合(目標データ102で2つの座標点が線分で連結されていない場合)の評価結果の例である。抽出された候補領域(ハッチングの部位)の4つの例A〜例Dでは例Aだけが期待に合致している。従って、比較評価部103は、例Aについて高い評価値を算出し、例B〜例Dについて例Aより低い評価値を算出する。   FIG. 5 shows a case where the target data 102 specifies that two coordinate points marked with “x” are included in different groups (two coordinate points are connected by a line segment in the target data 102). It is an example of the evaluation result of (when there is no). In the four examples A to D of the extracted candidate areas (hatched parts), only the example A meets the expectation. Therefore, the comparative evaluation unit 103 calculates a high evaluation value for Example A, and calculates a lower evaluation value than Example A for Examples B to D.

図6は、目標データ102で、「×」マークが付された2つの座標点が1つのグループとして指定されている場合(目標データ102で2つの座標点が直線で連結されている場合)の評価結果の例である。抽出された候補領域の4つの例A〜例Dでは例Bだけが期待に合致している。従って、比較評価部103は、例Bについて高い評価値を算出し、例Aと例Cと例Dでは例Bより低い評価値を算出する。   FIG. 6 shows a case where two coordinate points with an “x” mark are designated as one group in the target data 102 (when two coordinate points are connected with a straight line in the target data 102). It is an example of an evaluation result. In the four examples A to D of the extracted candidate areas, only example B meets the expectations. Therefore, the comparative evaluation unit 103 calculates a high evaluation value for the example B, and calculates a lower evaluation value for the example A, the example C, and the example D than the example B.

図7は、目標データ102で、「×」マークが付された3つの座標点のうち2つの座標が1つのグループとして指定され、残る1つが別のグループとして指定されている場合(目標データ102で3つの座標点のうち2つの座標点が線分で連結されている場合)を示す。抽出された候補領域の4つの例A〜例Dでは例Bだけが全ての期待に合致している。従って、比較評価部103は、例Bについて高い評価値を算出し、例Aと例Cと例Dについては例Bより低い評価値を算出する。   FIG. 7 shows a case where two coordinates are designated as one group among the three coordinate points marked with “x” in the target data 102 and the other one is designated as another group (target data 102). Shows a case where two of the three coordinate points are connected by a line segment). In the four examples A to D of the extracted candidate regions, only example B meets all expectations. Accordingly, the comparative evaluation unit 103 calculates a high evaluation value for the example B, and calculates a lower evaluation value than the example B for the example A, the example C, and the example D.

一方、「+」マーク同士で一つのグループに指定された複数の座標点は、いずれかの座標点を含んだ候補領域が抽出されることを結果データ107に期待する。この場合、候補領域が連結されているか否かは問わないし、候補領域に含まれない座標点があってもよい。一方、同一のグループに指定されていない他の座標とは、独立した孤立領域として抽出されることを期待する。   On the other hand, for a plurality of coordinate points designated as one group among the “+” marks, the result data 107 is expected to extract a candidate area including any coordinate point. In this case, it does not matter whether the candidate areas are connected or not, and there may be coordinate points not included in the candidate areas. On the other hand, it is expected that other coordinates not designated in the same group are extracted as independent isolated regions.

図8は、「+」マークが付された2つの座標点が異なるグループに含まれるものと指定されている場合(目標データ102で2つの座標点が線分で連結されていない場合)を示す。この場合は、図5の2つの「×」の座標と同じである。抽出された候補領域の4つの例A〜例Dでは例Aだけが期待に合致している。従って、比較評価部103は、例Aについて高い評価値を算出し、例B〜例Dについては例Aより低い評価値を算出する。   FIG. 8 shows a case where two coordinate points with a “+” mark are designated to be included in different groups (when the two coordinate points are not connected by a line segment in the target data 102). . In this case, the coordinates are the same as the two “x” coordinates in FIG. In the four examples A to D of the extracted candidate regions, only example A meets expectations. Therefore, the comparative evaluation unit 103 calculates a high evaluation value for Example A, and calculates a lower evaluation value than Example A for Examples B to D.

図9は、「+」マークが付された2つの座標点が同じグループとして指定されている場合(目標データ102で2つの座標点が線分で連結されている場合)を示す。抽出された候補領域の4つの例A〜例Dでは例Aと例Bと例Cが期待に合致している。従って、比較評価部103は、例A〜例Cについて等しく高い評価値を算出し、例Dについては例A〜例Cより低い評価値を算出する。   FIG. 9 shows a case where two coordinate points with a “+” mark are designated as the same group (when two coordinate points are connected by a line segment in the target data 102). In the four examples A to D of the extracted candidate regions, Example A, Example B, and Example C meet expectations. Therefore, the comparative evaluation unit 103 calculates an equally high evaluation value for Examples A to C, and calculates a lower evaluation value for Example D than Examples A to C.

図10は、「+」マークが付された3つの座標点のうち2つの座標点が1つのグループとして指定され、残る1つの座標点が別のグループに指定されている場合(目標データ102で3つの座標点のうち2つの座標点が線分で連結されている場合)を示す。抽出された候補領域の4つの例A〜例Dでは例Aと例Bが期待に合致している。従って、比較評価部103は、例Aと例Bについては等しく高い評価値を算出し、例Cと例Dでは例Aと例Bより低い評価値を算出する。   FIG. 10 shows a case where two coordinate points are designated as one group and three remaining coordinate points are designated as another group (in the target data 102). 2 of 3 coordinate points are connected by a line segment). In four examples A to D of the extracted candidate regions, examples A and B meet expectations. Accordingly, the comparative evaluation unit 103 calculates an equally high evaluation value for Example A and Example B, and calculates a lower evaluation value for Example C and Example D than for Example A and Example B.

以上のように、ユーザは、「×」マークと「+」マークの使い分けによって柔軟かつ簡便に、画像処理アルゴリズムの適用により得られる結果データ107が満たすべき論理条件を容易に設定することができる。この設定は、従来例のように目標画像を用意する場合に比して簡便である。   As described above, the user can easily set the logical condition to be satisfied by the result data 107 obtained by applying the image processing algorithm flexibly and simply by properly using the “x” mark and the “+” mark. This setting is simpler than when a target image is prepared as in the conventional example.

次に、図11〜図14を用い、さらに柔軟な目標データ102の設定方法について説明する。図11は、抽出対象があいまいな画像の例である。画像データ105があいまいであるのは、対象そのものが明確な形状でなかったり、対象が立体的に焦点の合わない位置に存在する異物や浮遊物であったり、撮像時に発生した振動のために像がぼけた場合に発生する。   Next, a more flexible method for setting the target data 102 will be described with reference to FIGS. FIG. 11 is an example of an image whose extraction target is ambiguous. The image data 105 is ambiguous because the object itself is not of a clear shape, or the object is a foreign object or floating object that exists in a three-dimensionally out-of-focus position, or because of vibrations that occur during imaging. Occurs when blurred.

このような対象を画像処理で抽出させたいとき、それをどのような領域形状、あるいは大きさ、位置にするかはあまり重要ではない。ただし、ある程度の大きさの領域として抽出させたいときには、目標データ102を例えば図12の設定例のように指定する。図12は、対象とする領域内の6か所に「×」マークを付した座標点を一つのグループとして設定し、さらに「3+」の指定を行う。「3+」は3つ以上の座標が含まれていればよいという指定である。従って、図12の設定例は、「×」マークが付された6個の座標点のうち3個以上を含む1つの連結した領域の抽出を期待することを意味する。   When such an object is to be extracted by image processing, it is not so important what region shape, size, or position it is. However, when it is desired to extract an area of a certain size, the target data 102 is designated as shown in the setting example of FIG. In FIG. 12, coordinate points with “x” marks at six locations in the target area are set as one group, and “3+” is designated. “3+” is a designation that three or more coordinates only need to be included. Accordingly, the setting example in FIG. 12 means that one connected region including three or more of the six coordinate points with the “x” mark is expected to be extracted.

図13に示す6つの候補領域(ハッチングの部位)の例A〜例Fでは、候補領域内に3つ以上の座標点を含む例A〜例Cが期待に合致している。例Dでは、候補領域内に2つしか座標点が含まれておらず、例Eでは候補領域が2つに分けて抽出されてしまっている。また、例Fでは、候補領域がそもそも抽出されていない。   In Examples A to F of the six candidate regions (hatched portions) shown in FIG. 13, Examples A to C including three or more coordinate points in the candidate region meet expectations. In Example D, only two coordinate points are included in the candidate area, and in Example E, the candidate area is extracted in two. Further, in Example F, the candidate area is not extracted in the first place.

この場合、比較評価部103は、例A〜例Cについて等しく高い評価値を算出し、例D〜例Fについては例A〜例Cより低い評価値を算出する。なお、図13の例Cのように、同じグループに属することを指定する線分上での座標点の順番は期待する結果に関係しない。   In this case, the comparative evaluation unit 103 calculates an equally high evaluation value for Examples A to C, and calculates an evaluation value lower than Examples A to C for Examples D to F. Note that, as in Example C in FIG. 13, the order of the coordinate points on the line segment that designates belonging to the same group is not related to the expected result.

これに対し、座標点を「×」マークではなく「+」マークで指定した場合、候補領域の数や連結を問わず、全体として3つ以上の座標点を含む候補領域の抽出を期待するものとなる。図14にその一例を示す。図14に示す6つの候補領域(ハッチングの部位)の例A〜例Fでは、候補領域内に3つ以上の座標を含む例A、例B、例C、例Eが期待に合致している。比較評価部103は、例A〜例C及び例Eについては等しく高い評価値を算出し、例D及び例Fについては例A〜例C及び例Eより低い評価値を算出する。   On the other hand, when the coordinate point is specified by the “+” mark instead of the “x” mark, the extraction of candidate regions including three or more coordinate points as a whole is expected regardless of the number of candidate regions and the connection. It becomes. An example is shown in FIG. In example A to example F of the six candidate areas (hatched parts) shown in FIG. 14, examples A, B, C, and E that include three or more coordinates in the candidate area meet expectations. . The comparative evaluation unit 103 calculates an equally high evaluation value for Example A to Example C and Example E, and calculates an evaluation value lower than Example A to Example C and Example E for Example D and Example F.

図11のようなあいまいな抽出対象の画像において、ある程度の大きさの領域を抽出させたいときの別の設定方法として、期待する大きさを面積で指定するようにしても良い。ここでは、図15と図16を用いてそのような例を説明する。   As another setting method for extracting an area of a certain size in an ambiguous extraction target image as shown in FIG. 11, an expected size may be designated by an area. Here, such an example will be described with reference to FIGS. 15 and 16.

図15は、300画素(ピクセル)以上350画素以下の面積を有する領域を抽出させることを指定した例である。図15は、「×」マークを付した6個の座標点を含み、連結した一つの領域が指定範囲の面積で抽出されることを期待することを意味する。図16で示す3つの候補領域(ハッチングの部位)の例A〜例Cでは、例Bの面積が318画素であり、期待する面積範囲に合致している。例Aでは抽出された領域の面積が670画素であり、期待する面積範囲より大きすぎ、例Cでは抽出された領域の面積が152画素であり、期待する面積範囲より小さすぎる。例A〜例Cの3つの例はいずれも「×」マークの座標を6個含み、連結した一つの領域ではあるが、比較評価部103は、例Bについて高い評価値を算出し、面積の指定に合致しない例Aや例Cについては例Bより低い評価値を算出する。   FIG. 15 shows an example in which extraction of a region having an area of 300 pixels (pixels) to 350 pixels is specified. FIG. 15 means that one coordinate region including six coordinate points with “x” marks is expected to be extracted with an area of a specified range. In the example A to example C of the three candidate regions (hatched parts) shown in FIG. 16, the area of the example B is 318 pixels, which matches the expected area range. In Example A, the area of the extracted region is 670 pixels, which is too larger than the expected area range, and in Example C, the area of the extracted region is 152 pixels, which is too smaller than the expected area range. Each of the three examples A to C includes six coordinates of the “x” mark and is a connected region, but the comparative evaluation unit 103 calculates a high evaluation value for example B, For example A and example C that do not match the specification, an evaluation value lower than that of example B is calculated.

以上では、目標設定部101において、目標データ102として抽出させる領域を指定する方法を説明したが、次では、抽出させたくない部位(非抽出対象)を指定する場合について説明する。   The method for specifying the region to be extracted as the target data 102 in the target setting unit 101 has been described above. Next, a case in which a part (non-extraction target) that is not desired to be extracted will be described.

図17は、ディスプレイ203の画面上で、目標データ102を設定する様子を示す。図17では、画面のウィンドウ内部に、製造物検査のために取得されたサンプル画像1501とオペレータが設定した座標点とが表示されている。   FIG. 17 shows how the target data 102 is set on the screen of the display 203. In FIG. 17, a sample image 1501 acquired for product inspection and coordinate points set by the operator are displayed inside the window of the screen.

サンプル画像1501は、画像データ105に対応する。サンプル画像1501の場合、製造物には異物1502が付着している。また、サンプル画像1501には、中空状の大きな異物1503が存在する。製造物1504は抽出対象ではないが異物と見た目の特徴が似ており、しかも異物1503に接近しているため、画像処理の抽出処理では誤って抽出される可能性が高いパターンである。   A sample image 1501 corresponds to the image data 105. In the case of the sample image 1501, foreign matter 1502 is attached to the product. The sample image 1501 includes a large hollow foreign object 1503. Although the product 1504 is not an extraction target, it has a similar appearance characteristic as a foreign substance, and is close to the foreign substance 1503. Therefore, the product 1504 is a pattern that is highly likely to be erroneously extracted in the image processing extraction process.

この場合、異物1502に対して「×」マークの座標点1508を指定し、異物1503に対して3つの座標点1509、1510、1511を指定する。指定方法は、前述の例と同じである。一方、製造物1504に対して抽出されないことが重要であれば、非抽出対象として「◇」のマークを付した座標点1517を指定する。また、異物1503の中空部分についても抽出されないことが重要であれば非抽出対象として「◇」のマークを付した座標点1515と1516を同一グループとして指定する。「×」マークが付された座標点1508〜1511についての比較評価部103の評価方法はこれまでの説明と同様で良い。「◇」のマークが付された座標点1515〜1517については、抽出された領域に含まれないときに高い評価値が出力されるようにする。同一グループの座標点1515と1516については、両者ともに抽出領域に含まれないときに高い評価値にさせてもよいし、いずれか1つ以上が抽出領域に含まれないときに高い評価値にさせてもよい。あるいは「×」マークと「+」マークのときと同様に、2つの座標点の違いを「◇」マークと「□」マークで区別してもよく、また個数の指定(「2+」のように)を追加できるようにしてもよい。   In this case, the coordinate point 1508 of the “x” mark is specified for the foreign object 1502, and three coordinate points 1509, 1510, and 1511 are specified for the foreign object 1503. The designation method is the same as in the above example. On the other hand, if it is important that the product 1504 is not extracted, a coordinate point 1517 marked with “◇” is designated as a non-extraction target. If it is important that the hollow portion of the foreign material 1503 is not extracted, coordinate points 1515 and 1516 marked with “◇” are designated as the same group as non-extraction targets. The evaluation method of the comparative evaluation unit 103 for the coordinate points 1508 to 1511 with the “x” mark may be the same as described above. For coordinate points 1515 to 1517 marked with “◇”, a high evaluation value is output when they are not included in the extracted area. Coordinate points 1515 and 1516 of the same group may be given a high evaluation value when both are not included in the extraction region, or may be set to a high evaluation value when any one or more are not included in the extraction region. May be. Alternatively, as in the case of the “×” mark and the “+” mark, the difference between the two coordinate points may be distinguished by the “◇” mark and the “□” mark, and the number specified (such as “2+”). May be added.

さらに、目標データ102の別の設定方法を、図18〜図24を用いて説明する。図18は、あいまいな対象が2つ(候補領域1601と候補領域1602)あることを示している。これら2つの対象を候補抽出部106に抽出させようとするときは、「●」で示した座標点同士を線分で結んで閉領域を描画し、描画された閉領域の内側に一つの候補領域が抽出されることを期待する。   Furthermore, another setting method of the target data 102 will be described with reference to FIGS. FIG. 18 shows that there are two ambiguous objects (candidate area 1601 and candidate area 1602). When trying to cause the candidate extraction unit 106 to extract these two objects, the coordinate point indicated by “●” is connected by a line segment to draw a closed region, and one candidate is placed inside the drawn closed region. Expect the region to be extracted.

図18では、候補領域1601を「●」のマークが付された4個の座標点1603〜1606と4本の線分で囲み、候補領域1602を「●」のマークが付された3個の座標点1607〜1609と3本の線分で囲んでいる。   In FIG. 18, the candidate area 1601 is surrounded by four coordinate points 1603 to 1606 marked with “●” and four line segments, and the candidate area 1602 is marked with three marks marked with “●”. Coordinate points 1607 to 1609 are surrounded by three line segments.

この場合、比較評価部103は、「●」マークで示す座標点で囲まれた2つの閉空間内のそれぞれにおいて独立した1つの候補領域が抽出されたとき、高い評価値を算出する。図18では、「●」マークで指定された座標点を線分で結んで所定の候補領域を囲む例を示したが、図19に示すように、「●」マークで指定された座標点間を所定の曲線で囲んでもよい。図18や図19に示す目標データ102の設定方法は、先に説明した方法に比べて指定する座標点が多くなるため手間が若干増えるが、「×」マークや「+」マークのように対象物の内部に座標点を指定するのが容易でない場合の作業性に優れている。   In this case, the comparative evaluation unit 103 calculates a high evaluation value when one independent candidate region is extracted in each of the two closed spaces surrounded by the coordinate points indicated by “●” marks. FIG. 18 shows an example in which the coordinate points designated by the “●” mark are connected by line segments to enclose a predetermined candidate area. However, as shown in FIG. 19, between the coordinate points designated by the “●” mark. May be surrounded by a predetermined curve. The setting method of the target data 102 shown in FIG. 18 and FIG. 19 is slightly troublesome because the number of coordinate points to be specified is larger than the method described above, but the target data 102 is an object like “x” mark or “+” mark. It is excellent in workability when it is not easy to specify coordinate points inside an object.

また、非対象物(抽出させたくない対象物)を含んでおらず、かつ、複数の対象物が接近している場合には、図20に示すように領域の個数を指定する方法を追加してもよい。図20は、座標点1800〜1803と4本の線で囲まれた閉空間の内側に、抽出させたい対象物が7つあることを指定する例である。このため、「7」の個数指定1804が画面内に追加されている。比較評価部103は、目標データ102で指定された領域内(「●」マークで指定された座標点間を線で囲んだ閉空間内)に、結果データ107から7つの候補領域が抽出されたとき、高い評価値を算出する。この場合は、「×」マークや「+」マークを用いるよりも少ない座標の数で、目標データ102を設定でき、高い作業性が期待できる。   In addition, when a non-object (object that is not desired to be extracted) is not included and a plurality of objects are approaching, a method of specifying the number of regions is added as shown in FIG. May be. FIG. 20 is an example of designating that there are seven objects to be extracted inside a closed space surrounded by coordinate points 1800 to 1803 and four lines. For this reason, the number designation 1804 of “7” is added to the screen. The comparative evaluation unit 103 extracted seven candidate regions from the result data 107 in the region specified by the target data 102 (in the closed space surrounded by a line between the coordinate points specified by the “●” mark). When a high evaluation value is calculated. In this case, the target data 102 can be set with a smaller number of coordinates than when using the “x” mark and the “+” mark, and high workability can be expected.

さらに、個数指定で「0」を設定すればノイズのような無視したい対象を抽出させないという目標データ102を設定することもできる。図21に一例を示す。図21の場合、「●」マークで指定された3つの座標点1900〜1902と3つの線で囲んだ閉空間の内側に複数のノイズが含まれている。ここで、閉空間に対して「0」の個数指定1903を追加して目標データ102を設定する。この目標データ102を入力した比較評価部103は、目標データ102で指定された領域内(「●」マークで指定された座標点間を線で囲んだ閉空間内)に候補領域が抽出されなかったとき、高い評価値を算出する。   Furthermore, the target data 102 can be set such that if “0” is set in the number designation, an object to be ignored such as noise is not extracted. An example is shown in FIG. In the case of FIG. 21, a plurality of noises are included inside a closed space surrounded by three coordinate points 1900 to 1902 and three lines designated by the “●” mark. Here, the target data 102 is set by adding the number designation 1903 of “0” to the closed space. The comparison / evaluation unit 103 that has input the target data 102 does not extract a candidate area within the area specified by the target data 102 (within the closed space surrounded by a line between the coordinate points specified by the “●” mark). A high evaluation value is calculated.

次に、座標で囲んだ領域内に非対象領域(抽出させたくない領域)を含むことを指定する目標データ102の設定例を示す。図22はその一例である。図22の場合、抽出させたい対象2005の内部には抽出させたくない部位が6つある。これら6つの部位を「○」マークを付した座標点2001〜2004で囲み、「6」の個数指定2000を追加する。この目標データ102を入力した比較評価部103は、指定された閉空間の内側で6つの部位が抽出されていないとき、高い評価値を算出する。   Next, a setting example of the target data 102 that specifies that a non-target region (a region that is not desired to be extracted) is included in the region surrounded by coordinates will be described. FIG. 22 shows an example. In the case of FIG. 22, there are six parts that do not want to be extracted in the target 2005 to be extracted. These six parts are surrounded by coordinate points 2001 to 2004 with “◯” marks, and the number designation 2000 of “6” is added. The comparative evaluation unit 103 that has input the target data 102 calculates a high evaluation value when six parts are not extracted inside the designated closed space.

また、図21で示した場合と同様に、抽出対象ではない領域についても「○」マークの座標点同士を線で接続して閉空間を設定し、個数指定で「0」を指定してノイズのような部分を無視させるようにしてもよい。   Similarly to the case shown in FIG. 21, for a region that is not an extraction target, a closed space is set by connecting the coordinate points of the “◯” mark with a line, and “0” is specified for the number to specify noise. Such a part may be ignored.

[候補抽出部106の処理イメージ]
図23に、候補抽出部106が内蔵する処理機能のイメージを示す。候補抽出部106は、画像データ105に対して様々な処理を実行し、その処理結果を結果データ107として出力する。このため、候補抽出部106には、1種類以上の画像処理機能2102、2103、2104、2105…が備えられている。画像処理機能2102、2103、2104、2105…は、画像データ105や他の処理機能による処理結果に対して所定の処理を実行し、結果データ107を出力するものである。処理内容には、例えばノイズ低減処理、輝度補正処理、エッジ強調処理、色分解処理、二画像差分演算処理、二画像和演算処理、平滑化処理、二値化処理などが含まれる。各処理機能の詳細は、設定データ109として与えられるパラメータの値により調整される。この他、設定データ109は、内蔵された画像処理機能のうちどれを使用し、入力と出力をどのように接続するかも指定する。
[Processing Image of Candidate Extraction Unit 106]
FIG. 23 shows an image of processing functions built in the candidate extraction unit 106. The candidate extraction unit 106 performs various processes on the image data 105 and outputs the processing results as result data 107. Therefore, the candidate extraction unit 106 includes one or more types of image processing functions 2102, 2103, 2104, 2105,. The image processing functions 2102, 2103, 2104, 2105... Execute predetermined processing on the processing results of the image data 105 and other processing functions and output the result data 107. The processing content includes, for example, noise reduction processing, luminance correction processing, edge enhancement processing, color separation processing, two-image difference calculation processing, two-image sum calculation processing, smoothing processing, binarization processing, and the like. The details of each processing function are adjusted by the parameter value given as the setting data 109. In addition, the setting data 109 also specifies which of the built-in image processing functions is used and how the input and output are connected.

図24、図25に、画像処理機能の接続例を示す。図24は、「処理a」2102と「処理e」2200を直列に接続して使用する場合を示している。この場合、候補抽出部106は、画像データ105に対して「処理a」2102を実行し、その結果に対して「処理e」の処理を実行し、その結果を結果データ107として出力する。図25は、「処理a」2102と「処理b」2103と、「処理c」2104を組み合わせて使用する場合を示している。この場合、候補抽出部106は、画像データ105に対して「処理a」2102と「処理b」2103を実行し、それら2つの処理結果に対して更に「処理c」2104を実行し、その結果を結果データ107として出力する。このように、候補抽出部106は、設定データ109により処理構成やパラメータを変更させることにより、様々な処理を行った結果データ107を出力することができる。   24 and 25 show connection examples of the image processing function. FIG. 24 shows a case where “processing a” 2102 and “processing e” 2200 are connected in series and used. In this case, the candidate extraction unit 106 executes “process a” 2102 on the image data 105, executes the process “process e” on the result, and outputs the result as result data 107. FIG. 25 shows a case where “processing a” 2102, “processing b” 2103, and “processing c” 2104 are used in combination. In this case, the candidate extraction unit 106 executes “processing a” 2102 and “processing b” 2103 on the image data 105, and further executes “processing c” 2104 on the two processing results. Is output as result data 107. As described above, the candidate extraction unit 106 can output the result data 107 obtained by performing various processes by changing the processing configuration and parameters according to the setting data 109.

[自動最適化部108の処理]
図26に、自動最適化部108で実行される最適化処理動作の例を示す。なお、自動最適化部108の処理動作の前提として、目標データ102や目標とする評価値(目標評価値)が予め設定されているものとする。目標評価値は、例えば0.9や1.0である。
[Processing of the automatic optimization unit 108]
FIG. 26 shows an example of the optimization processing operation executed by the automatic optimization unit 108. It is assumed that target data 102 and a target evaluation value (target evaluation value) are set in advance as a premise of the processing operation of the automatic optimization unit 108. The target evaluation value is, for example, 0.9 or 1.0.

初めに、自動最適化部108は初期化処理を行う(S01)。初期化処理において、自動最適化部108は、候補抽出部106の処理構成とパラメータの案をランダムに生成し、設定データ109とする。   First, the automatic optimization unit 108 performs initialization processing (S01). In the initialization process, the automatic optimization unit 108 randomly generates the processing configuration and parameter plan of the candidate extraction unit 106 as setting data 109.

次に、自動最適化部108は、候補抽出部106に画像処理を実行させ、その結果データ107を出力させる(S02)。   Next, the automatic optimization unit 108 causes the candidate extraction unit 106 to perform image processing, and outputs the result data 107 (S02).

次に、自動最適化部108は、結果データ107と事前に設定された目標データ102を入力して所定の評価を実行する比較評価部103より評価値110を取得する(S03)。   Next, the automatic optimization unit 108 acquires the evaluation value 110 from the comparative evaluation unit 103 that inputs the result data 107 and the target data 102 set in advance and executes a predetermined evaluation (S03).

次に、自動最適化部108は、評価値110が目標評価値に達したか否かを判定する(S04)。評価値110が目標評価値に達していた場合、自動最適化部108は、その評価値を得ることができた設定データを最適化結果として最適化処理を終了する(S06)。一方、評価値110が目標評価値に達していない場合、自動最適化部108は、取得された評価値110に基づいて、新たな処理構成とパラメータの案を生成し、設定データ109を更新する(S05)。   Next, the automatic optimization unit 108 determines whether or not the evaluation value 110 has reached the target evaluation value (S04). When the evaluation value 110 has reached the target evaluation value, the automatic optimization unit 108 terminates the optimization process using the setting data for which the evaluation value can be obtained as an optimization result (S06). On the other hand, when the evaluation value 110 does not reach the target evaluation value, the automatic optimization unit 108 generates a new processing configuration and parameter proposal based on the acquired evaluation value 110 and updates the setting data 109. (S05).

例えば評価値110が0(ゼロ)でない場合、自動最適化部108は、設定データ109の一部だけをランダムに変更し、評価値110が0(ゼロ)である場合、自動最適化部108は、S01と同様にランダムに設定データ全般を再生成する。その後、自動最適化部108は、画像処理の実行のステップ(S02)に戻り、一連の処理を繰り返す。   For example, when the evaluation value 110 is not 0 (zero), the automatic optimization unit 108 changes only a part of the setting data 109 at random, and when the evaluation value 110 is 0 (zero), the automatic optimization unit 108 , The entire setting data is regenerated at random as in S01. Thereafter, the automatic optimization unit 108 returns to the image processing execution step (S02) and repeats a series of processes.

なお、前もってある程度の結果が期待できる処理構成やパラメータが分かっている場合、自動最適化部108は、S01のステップの代わりにその処理構成やパラメータを設定データ109に与えてもよい。また、S05のステップにおいて、自動最適化部108は、今回の評価値110と前回の評価値110とを比較し、次の案で使用する処理構成又はパラメータを調整してもよい。また、一度に複数の案を候補抽出部106に実行させ、それらの結果(評価値110)を比較し、その比較結果を新たな案の生成に参考にしてもよい。また、自動最適化部108は、遺伝的アルゴリズムやニューラルネットワークに従って処理構成とパラメータを再生成してもよい。   If a processing configuration and parameters that can be expected to have a certain result are known in advance, the automatic optimization unit 108 may give the processing configuration and parameters to the setting data 109 instead of the step of S01. In step S05, the automatic optimization unit 108 may compare the current evaluation value 110 with the previous evaluation value 110 and adjust the processing configuration or parameters used in the next plan. It is also possible to cause the candidate extraction unit 106 to execute a plurality of plans at a time, compare the results (evaluation value 110), and refer to the comparison result for generation of a new plan. The automatic optimization unit 108 may regenerate the processing configuration and parameters according to a genetic algorithm or a neural network.

[まとめ]
以上説明したように、本実施例では、設定データに従って処理構成やパラメータを変更可能な画像分析支援装置に、(1)画像データ105から抽出させたい部位を座標点と座標点間のリンク関係(グループ関係)として指定を受付ける機能と、(2)候補抽出部106の結果データ107が目標データ102と論理演算的に合致するほど高評価となる評価値110が、所定しきい値(目標とする評価値)未満のときには設定データ109を変更し、所定しきい値以上のときにはそのときの設定データ109を最終結果とする自動調整を行う機能とを採用する。
[Summary]
As described above, in this embodiment, the image analysis support apparatus capable of changing the processing configuration and parameters according to the setting data allows (1) the link relationship between the coordinate points and the coordinate points between the coordinates to be extracted from the image data 105 ( (2) The evaluation value 110 that becomes higher as the result data 107 of the candidate extraction unit 106 logically matches the target data 102 is a predetermined threshold value (target) When the value is less than (evaluation value), the setting data 109 is changed. When the value is equal to or greater than a predetermined threshold value, a function for automatically adjusting the setting data 109 at that time as a final result is adopted.

このように、本実施例は、座標点間のリンク関係を目標データ102として指定する。このため、従来技術のように適切な目標画像を用意する必要が無く、結果データ107の評価に必要な目標データの作成に要する手間と時間を従来例に比して格段に低減することができる。また、本実施例では、予め良好な抽出結果が得られていない場合や抽出したい領域の外延が明確で無い場合でも、座標点を含む領域として指定することが可能となり、分析対象として入力できる画像データの範囲を拡張することができる。   As described above, in this embodiment, the link relationship between coordinate points is designated as the target data 102. For this reason, it is not necessary to prepare an appropriate target image as in the prior art, and it is possible to significantly reduce the labor and time required to create the target data necessary for the evaluation of the result data 107 as compared with the conventional example. . Further, in this embodiment, even when a good extraction result is not obtained in advance or when the extension of the region to be extracted is not clear, it is possible to designate the region including the coordinate point, and an image that can be input as an analysis target The range of data can be expanded.

また、本実施例では、座標点間のリンク関係で与えられる目標データ102と結果データ107との論理演算的な合致度に応じて結果データ107に対する評価値を算出するため、単なるパターンマッチングとは異なり、個々の部位や複数の部位間に要求される関係や条件も含めて結果データ107を評価することが可能となる。   Further, in this embodiment, since the evaluation value for the result data 107 is calculated according to the logical operation matching degree between the target data 102 and the result data 107 given by the link relationship between coordinate points, simple pattern matching is Differently, it is possible to evaluate the result data 107 including relationships and conditions required between individual parts and a plurality of parts.

例えば結果データ107として抽出された領域内に目標データ102で指定された複数の座標点のうち指定された個数以上を含む場合に高評価値を与えることができる。また例えば目標データ102で指定された複数の座標点が結果データ107の同じ領域内に存在する場合に高評価値を与えることができる。また例えば指定された個数の座標点を含めば、それらの座標点が複数の領域に分散していても高評価値を与えたり、座標点が反対に複数の領域に分散している場合には高評価値を与えないこともできる。また、1つの領域内に座標点で指定した除外部分を含む場合に高評価値を与えたり、独立した領域が複数存在する場合に高評価値を与えたりすることもできる。   For example, a high evaluation value can be given when the region extracted as the result data 107 includes a specified number or more of a plurality of coordinate points specified by the target data 102. For example, when a plurality of coordinate points specified by the target data 102 exist in the same region of the result data 107, a high evaluation value can be given. Also, for example, if a specified number of coordinate points are included, even if those coordinate points are dispersed in a plurality of areas, a high evaluation value is given, or when coordinate points are dispersed in a plurality of areas on the contrary It is also possible not to give a high evaluation value. In addition, a high evaluation value can be given when an excluded portion designated by coordinate points is included in one area, or a high evaluation value can be given when a plurality of independent areas exist.

このように、本実施例では、目標データ102としての座標指定時に、論理条件(例えば「+」マーク、「×」マーク、個数条件、グループ関係)も同時に指定できる。このため、従来技術に比較して、画像処理アルゴリズムの開発や調整が容易になる。   As described above, in this embodiment, when the coordinates as the target data 102 are designated, logical conditions (for example, “+” mark, “x” mark, number condition, group relation) can be designated at the same time. This makes it easier to develop and adjust image processing algorithms than in the prior art.

なお、目標データ102として入力可能な論理条件には、階調情報(色相、階調値(例えば白/黒))を含めても良い。勿論、比較評価部103は、目標データ102として指定される得る様々な論理条件に合致する結果データ107に高評価値を与える論理演算機能を備えている。   Note that the logical conditions that can be input as the target data 102 may include gradation information (hue, gradation value (for example, white / black)). Of course, the comparative evaluation unit 103 has a logical operation function that gives a high evaluation value to the result data 107 that matches various logical conditions that can be designated as the target data 102.

[実施例2]
本実施例は、製造物(例えば半導体ウェハ)を撮像した画像から、所定のパターンの位置検出を行う画像分析支援装置について説明する。なお、装置構成は、実施例1と同じである。
[Example 2]
In this embodiment, an image analysis support apparatus that detects a position of a predetermined pattern from an image obtained by capturing a product (for example, a semiconductor wafer) will be described. The apparatus configuration is the same as that of the first embodiment.

本実施例では、候補抽出部106が、テンプレートマッチングの手法により、画像データ105の中から特定パターンに合致するパターンの位置を検出する場合について説明する。このため、本実施例における候補抽出部106には、処理の1つとして、パターンマッチング処理が含まれている。また、本実施例の場合、候補抽出部106から出力される結果データ107は常に候補座標である。   In the present embodiment, a case will be described in which the candidate extraction unit 106 detects a position of a pattern that matches a specific pattern from the image data 105 by a template matching method. For this reason, the candidate extraction unit 106 in the present embodiment includes a pattern matching process as one of the processes. In this embodiment, the result data 107 output from the candidate extraction unit 106 is always candidate coordinates.

[テンプレート画像]
図27に、テンプレートマッチングで使用するテンプレート画像2501の例を示す。図27に示すテンプレート画像2501には、十字型の位置検出用のパターン2502が含まれている。
[Template image]
FIG. 27 shows an example of a template image 2501 used for template matching. A template image 2501 shown in FIG. 27 includes a cross-shaped position detection pattern 2502.

[サンプル画像と目標データの設定例]
図28に、ディスプレイ203の画面上で目標データ102を設定する際の操作の様子を示す。画面のウィンドウ内には、検査対象であるサンプル画像2601が表示されている。サンプル画像2601には、テンプレート画像2501(図27)のパターン2502に類似する十字型のパターン2603が含まれている。オペレータは、テンプレート画像2501と適合する部位2602をスタイラスペン204で指定する。この実施例では、部位2602の指定用に例えばテンプレート画像2501と同じサイズの四角形を予め表示し、表示された四角形の表示位置をスタイラスペンで適宜移動させる方法により部位2602を指定する。このとき、部位2602の位置は、図中、「×」マークで示す座標点2604により指定される。なお、検索しようとするパターンが画像内に複数存在するサンプルの場合、オペレータは、複数の座標を目標データ102に設定してもよい。
[Sample image and target data setting example]
FIG. 28 shows the operation when setting the target data 102 on the screen of the display 203. A sample image 2601 to be inspected is displayed in the window of the screen. The sample image 2601 includes a cross-shaped pattern 2603 similar to the pattern 2502 of the template image 2501 (FIG. 27). The operator designates a portion 2602 that matches the template image 2501 with the stylus pen 204. In this embodiment, for specifying the part 2602, for example, a square having the same size as the template image 2501 is displayed in advance, and the part 2602 is specified by a method of appropriately moving the display position of the displayed square with a stylus pen. At this time, the position of the part 2602 is designated by a coordinate point 2604 indicated by a “x” mark in the drawing. In the case of a sample in which a plurality of patterns to be searched exist in the image, the operator may set a plurality of coordinates in the target data 102.

ところで、検索対象として与えられる画像のパターンは常に明瞭であるとは限らない。例えば図29に示すように、テンプレート画像2501のパターンに類似するパターンが損傷しており、パターンマッチングの際に位置を予想し難い、又は、高い位置精度は問わないような場合も想定される。そこで、本実施例では、目標データ102として与える「×」マークの座標点2704を中心とする第1の許容範囲円2702と第2の許容範囲円2703を設定する。ここで、第1の許容範囲円2702は、座標点2704に対して十分許容される範囲である。一方、第1の許容範囲円2702の外側にある第2の許容範囲円2703は、座標点2704に対して位置ずれはしているものの、パターンを検知しているとして許容する範囲である。   By the way, the pattern of an image given as a search target is not always clear. For example, as shown in FIG. 29, a pattern similar to the pattern of the template image 2501 is damaged, and it may be difficult to predict the position at the time of pattern matching, or high position accuracy may not be questioned. Therefore, in this embodiment, a first allowable range circle 2702 and a second allowable range circle 2703 centering on the coordinate point 2704 of the “×” mark given as the target data 102 are set. Here, the first allowable range circle 2702 is a range that is sufficiently allowed for the coordinate point 2704. On the other hand, the second allowable range circle 2703 outside the first allowable range circle 2702 is a range that is allowed to detect that a pattern is detected although it is displaced from the coordinate point 2704.

比較評価部103は、結果データ107の候補座標がこの第1の許容範囲円2702内に位置すれば高い評価値を算出し、第1の許容範囲円2702と第2の許容範囲円2703との間に位置すれば第1の許容範囲円2702内に位置するときよりは低い評価値を与える。   The comparative evaluation unit 103 calculates a high evaluation value if the candidate coordinates of the result data 107 are located within the first allowable range circle 2702, and the first evaluation range circle 2702 and the second allowable range circle 2703 are calculated. If it is located in between, a lower evaluation value is given than when it is located within the first tolerance circle 2702.

また、本実施例の場合にも、サンプル画像内に目標データ102で指定する座標点が複数存在する場合に、これら複数の座標点間に論理関係を規定することができる。図30は、テンプレートパターンに類似するパターンを含む部位が画像内に複数存在する場合を表している。   Also in this embodiment, when there are a plurality of coordinate points specified by the target data 102 in the sample image, a logical relationship can be defined between the plurality of coordinate points. FIG. 30 shows a case where there are a plurality of parts including a pattern similar to the template pattern in the image.

例えば2つの部位2800、2801の位置を指定する座標点2802、2803を「+」マークで指定し、さらに、各座標点を線分で結べば、2つの部位が同一グループに属することを論理条件として指定することができる。この場合、座標点は「+」マークであるので、2つの座標点2802と2803のうちいずれか一つ以上のマッチングが成功していればよいという設定になる。この設定の場合、比較評価部106は、いずれか一方について候補座標が許容範囲内であれば所定の評価値を与え、2者ともに許容範囲内であれば高い方の評価値を与える又はそれらの平均値を与える。なお、図30において座標点2802、2803を「×」マークで指定すれば、2つの座標2802と2803の両方でのマッチングの成功を要求する設定となる。   For example, if the coordinate points 2802 and 2803 for designating the positions of the two parts 2800 and 2801 are designated by “+” marks and the respective coordinate points are connected by line segments, the logical condition is that the two parts belong to the same group. Can be specified as In this case, since the coordinate point is a “+” mark, it is set that any one or more of the two coordinate points 2802 and 2803 have been successfully matched. In the case of this setting, the comparative evaluation unit 106 gives a predetermined evaluation value if the candidate coordinates are within an allowable range for either one, and gives a higher evaluation value if both are within the allowable range, or those Give the average value. In FIG. 30, if coordinate points 2802 and 2803 are designated by “x” marks, it is set to require successful matching at both the two coordinates 2802 and 2803.

次に、さらに多くの座標点間に論理関係を規定する例を説明する。図31は、画像内に、テンプレートパターンに類似するパターンを含む部位が4つ(2900〜2903)存在し、そのうち幾つかの座標でマッチングに成功すれば良いとする論理条件を指定する場合の例である。   Next, an example in which a logical relationship is defined between more coordinate points will be described. FIG. 31 shows an example in which there are four parts (2900 to 2903) including a pattern similar to the template pattern in the image, and the logical condition that the matching should be successful at some coordinates among them is specified. It is.

図31では、4つのパターンの位置をそれぞれ「+」マークの座標点2904〜2907を線分で結ぶことにより、同一グループに指定している。さらに、図示するように、「2+」という個数指定2908を追加すれば、いずれか2つ以上のマッチングが成功していればよいという設定を行うことができる。   In FIG. 31, the positions of the four patterns are designated as the same group by connecting the coordinate points 2904 to 2907 of the “+” mark with line segments. Furthermore, as shown in the figure, if a number designation 2908 of “2+” is added, it is possible to set that any two or more matching needs to be successful.

図32と図33は、撮像時の振動や対象の製造工程が原因で、目標データ102の指定に使用する画像において対象が一方向にずれた2重パターンとなった場合にも、目標データ102の許容範囲をそれに合わせて調整する例である。   FIG. 32 and FIG. 33 show the target data 102 even when the target is shifted in one direction in the image used for specifying the target data 102 due to vibration at the time of imaging and the manufacturing process of the target. It is an example which adjusts the tolerance | permissible_range of according to it.

図32では、画像3003内におけるパターンのずれ方向に伸長させた許容範囲3001を「●」マークの座標点と線分で囲んで設定する例である。この場合、比較評価部106は、結果データ107の候補座標がこの範囲内にただ一つあれば、高い評価値を算出するように動作する。図33は、「2」の個数指定3100を追加する例である。図33は、2つのずれたパターンのそれぞれについてマッチング位置を検出することを期待するもので、比較評価部106は、結果データ107の候補座標がこの範囲内で2つあれば高い評価値を算出する。   FIG. 32 shows an example in which an allowable range 3001 extended in the pattern displacement direction in the image 3003 is set by being surrounded by a coordinate point and a line segment of the “●” mark. In this case, the comparison evaluation unit 106 operates to calculate a high evaluation value if there is only one candidate coordinate in the result data 107 within this range. FIG. 33 is an example in which the number designation 3100 of “2” is added. FIG. 33 is expected to detect a matching position for each of two shifted patterns, and the comparative evaluation unit 106 calculates a high evaluation value if there are two candidate coordinates of the result data 107 within this range. To do.

[まとめ]
以上説明したように、本実施例の場合にも、パターンマッチングにより抽出させたいパターンの位置を1つ又は複数の座標点で指定すると共に、各座標点について許容範囲を設定するだけの簡易な手法により、パターンマッチング結果の評価に適した目標データ102を入力することができる。また、本実施例の場合にも、目標データ102として複数の座標点間の論理関係を指定できる。このため、所望の結果データ107について高評価値が算出されるような画像処理アルゴリズムの開発や処理構成の調整を少ない人手や時間で実現することができる。
[Summary]
As described above, even in the case of the present embodiment, a simple method of simply designating the position of a pattern to be extracted by pattern matching with one or a plurality of coordinate points and setting an allowable range for each coordinate point. Thus, the target data 102 suitable for the evaluation of the pattern matching result can be input. Also in the present embodiment, a logical relationship between a plurality of coordinate points can be designated as the target data 102. For this reason, development of an image processing algorithm and adjustment of a processing configuration in which a high evaluation value is calculated for the desired result data 107 can be realized with less manpower and time.

[他の実施例]
前述の実施例では、製造物から取得した画像を処理対象とする画像分析支援装置について説明したが、細胞数のカウントや患部を撮影した医用画像の診断に使用する画像分析支援装置にも適用できる。例えば画像データが半導体デバイスの撮像画像である場合、本発明は、電子走査型検査装置、電子走査型計測装置、電子走査型レビュー装置に応用することができる。なお、検査に使用する荷電粒子は電子に限らず、イオンでも良い。また例えば画像データが医療画像の場合、本発明は、医用診断装置や医用分析装置にも応用することができる。
[Other embodiments]
In the above-described embodiment, the image analysis support apparatus that processes an image acquired from a product has been described. However, the present invention can also be applied to an image analysis support apparatus used for diagnosis of a medical image obtained by counting the number of cells or an affected area. . For example, when the image data is a captured image of a semiconductor device, the present invention can be applied to an electronic scanning inspection apparatus, an electronic scanning measurement apparatus, and an electronic scanning review apparatus. The charged particles used for the inspection are not limited to electrons but may be ions. For example, when the image data is a medical image, the present invention can be applied to a medical diagnostic apparatus and a medical analysis apparatus.

なお、本発明は上述した実施例に限定されるものでなく、様々な変形を含んでいる。例えば、上述した実施例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成を追加、削除又は置換することも可能である。   In addition, this invention is not limited to the Example mentioned above, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of a certain embodiment can be replaced with a configuration of another embodiment, and a configuration of another embodiment can be added to a configuration of a certain embodiment. Moreover, it is also possible to add, delete, or replace another configuration for a part of the configuration of each embodiment.

また、上述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路その他のハードウェアとして実現しても良い。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することにより実現しても良い。すなわち、ソフトウェアとして実現しても良い。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリやハードディスク、SSD(Solid State Drive)等の記憶装置、ICカード、SDカード、DVD等の記憶媒体に格納することができる。   Moreover, you may implement | achieve some or all of each structure, a function, a process part, a process means, etc. which were mentioned above as an integrated circuit or other hardware, for example. Each of the above-described configurations, functions, and the like may be realized by the processor interpreting and executing a program that realizes each function. That is, it may be realized as software. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a storage device such as an SSD (Solid State Drive), or a storage medium such as an IC card, an SD card, or a DVD.

また、制御線や情報線は、説明上必要と考えられるものを示すものであり、製品上必要な全ての制御線や情報線を表すものでない。実際にはほとんど全ての構成が相互に接続されていると考えて良い。   Control lines and information lines indicate what is considered necessary for the description, and do not represent all control lines and information lines necessary for the product. In practice, it can be considered that almost all components are connected to each other.

101…目標データ設定部、102…目標データ、103…比較評価部、104…撮像部、105…画像データ、106…候補抽出部、107…結果データ、108…自動最適化部、109…設定データ、110…評価値、201…キーボード、202…マウス、203…ディスプレイ、204…スタイラスペン。   DESCRIPTION OF SYMBOLS 101 ... Target data setting part, 102 ... Target data, 103 ... Comparison evaluation part, 104 ... Imaging part, 105 ... Image data, 106 ... Candidate extraction part, 107 ... Result data, 108 ... Automatic optimization part, 109 ... Setting data , 110 ... evaluation value, 201 ... keyboard, 202 ... mouse, 203 ... display, 204 ... stylus pen.

Claims (14)

入力された画像データに所定の画像処理アルゴリズムを適用し、結果データを出力する候補抽出部と、
前記結果データの評価に使用する目標データを、前記目標データの設定用に入力された前記画像データに対応する画像上の座標点として受け付ける目標データ設定部と、
前記結果データと前記目標データを論理演算的に比較し、前記目標データとの合致度が高い結果データほど高評価値を算出する比較評価部と、
前記評価値に基いて、前記画像処理アルゴリズムの設定値を自動的に決定する自動最適化部と、
を有し、
前記結果データが、前記画像データに対応する画像内の1つ又は複数の部位を抽出するものであるとき、前記目標データは、複数の座標点が同じグループに属するか否かを指定するリンク情報を含む
ことを特徴とする画像分析支援装置
A candidate extraction unit that applies a predetermined image processing algorithm to input image data and outputs result data; and
A target data setting unit that accepts target data used for evaluation of the result data as coordinate points on an image corresponding to the image data input for setting the target data;
Comparing the result data and the target data logically, a comparison evaluation unit that calculates a higher evaluation value for the result data having a higher degree of matching with the target data;
An automatic optimization unit that automatically determines a setting value of the image processing algorithm based on the evaluation value;
Have
When the result data is for extracting one or a plurality of parts in the image corresponding to the image data, the target data is link information that specifies whether or not a plurality of coordinate points belong to the same group including
An image analysis support apparatus characterized by that .
請求項に記載の画像分析支援装置において、
前記リンク情報は、前記目標データの指定入力画面上で、同じグループに属する座標点を結ぶ線分として示される
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 1 ,
The link information is indicated as a line segment connecting coordinate points belonging to the same group on the target data designation input screen.
請求項に記載の画像分析支援装置において、
同じグループに関連付けられた複数の座標点のうちいずれか1つでも対応部位に含まれていれば高評価値を与えて良いことを示す座標点を、前記目標データの指定入力画面上で第1の記号により表す
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 1 ,
A coordinate point indicating that a high evaluation value may be given if any one of a plurality of coordinate points associated with the same group is included in the corresponding part is displayed on the first target data designation input screen. An image analysis support device characterized by being represented by the symbol.
請求項に記載の画像分析支援装置において、
同じグループに関連付けられた複数の座標点のうち指定された個数以上が1つ又は複数の対応部位に含まれていれば高評価値を与えて良いことを示す論理条件を、前記目標データの指定入力画面上における座標点数の指定により表す
ことを特徴とする画像分析支援装置。
The image analysis support apparatus according to claim 3 ,
Specifying a logical condition indicating that a high evaluation value may be given if one or more corresponding parts are included in one or more corresponding parts among a plurality of coordinate points associated with the same group. An image analysis support apparatus characterized by being expressed by specifying the number of coordinate points on an input screen.
請求項に記載の画像分析支援装置において、
同じグループに関連付けられた複数の座標点が同じ対応部位に含まれていれば高評価値を与えて良いことを示す座標点を、前記目標データの指定入力画面上で第2の記号により表す
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 1 ,
A coordinate point indicating that a high evaluation value may be given if a plurality of coordinate points associated with the same group are included in the same corresponding part is represented by a second symbol on the target data designation input screen. An image analysis support device characterized by the above.
請求項に記載の画像分析支援装置において、
同じグループに関連付けられた複数の座標点のうち指定された個数以上が1つの対応部位に含まれていれば高評価値を与えて良いことを示す論理条件を、前記目標データの指定入力画面上における座標点数の指定により表す
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 5 ,
On the designation input screen for the target data, a logical condition indicating that a high evaluation value may be given if one or more of the designated number of coordinate points associated with the same group is included in one corresponding part An image analysis support apparatus characterized by being expressed by specifying the number of coordinate points in.
請求項1に記載の画像分析支援装置において、
前記結果データが、前記画像データに対応する画像内の部位を抽出するものであるとき、前記座標点を含む対応部位に高評価値を与えて良いことを示す論理条件として、対応部位の面積を指定する
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 1,
When the result data is for extracting a part in the image corresponding to the image data, the logical area indicating that a high evaluation value may be given to the corresponding part including the coordinate point, the area of the corresponding part is An image analysis support device characterized by specifying.
入力された画像データに所定の画像処理アルゴリズムを適用し、結果データを出力する候補抽出部と、
前記結果データの評価に使用する目標データを、前記目標データの設定用に入力された前記画像データに対応する画像上の座標点として受け付ける目標データ設定部と、
前記結果データと前記目標データを論理演算的に比較し、前記目標データとの合致度が高い結果データほど高評価値を算出する比較評価部と、
前記評価値に基いて、前記画像処理アルゴリズムの設定値を自動的に決定する自動最適化部と、
を有し、
前記結果データが、前記画像データに対応する画像内の1つ又は複数の部位を抽出するものであるとき、前記座標点を対応部位に含まない場合に高評価値を与えて良いことを示す座標点を、前記目標データの指定入力画面上で第3の記号により表す
ことを特徴とする画像分析支援装置
A candidate extraction unit that applies a predetermined image processing algorithm to input image data and outputs result data; and
A target data setting unit that accepts target data used for evaluation of the result data as coordinate points on an image corresponding to the image data input for setting the target data;
Comparing the result data and the target data logically, a comparison evaluation unit that calculates a higher evaluation value for the result data having a higher degree of matching with the target data;
An automatic optimization unit that automatically determines a setting value of the image processing algorithm based on the evaluation value;
Have
Coordinates indicating that when the result data is for extracting one or a plurality of parts in an image corresponding to the image data, a high evaluation value may be given when the coordinate points are not included in the corresponding parts A point is represented by a third symbol on the target data designation input screen.
An image analysis support apparatus characterized by that .
入力された画像データに所定の画像処理アルゴリズムを適用し、結果データを出力する候補抽出部と、
前記結果データの評価に使用する目標データを、前記目標データの設定用に入力された前記画像データに対応する画像上の座標点として受け付ける目標データ設定部と、
前記結果データと前記目標データを論理演算的に比較し、前記目標データとの合致度が高い結果データほど高評価値を算出する比較評価部と、
前記評価値に基いて、前記画像処理アルゴリズムの設定値を自動的に決定する自動最適化部と、
を有し、
前記結果データが、前記画像データに対応する画像内の1つ又は複数の部位を抽出するものであり、かつ、前記目標データの指定入力画面上で、複数の座標点が閉空間を構成するように線分で結ばれるとき、前記比較評価部は、前記閉空間内に対応部位が含まれるとき高評価値を与える
ことを特徴とする画像分析支援装置
A candidate extraction unit that applies a predetermined image processing algorithm to input image data and outputs result data; and
A target data setting unit that accepts target data used for evaluation of the result data as coordinate points on an image corresponding to the image data input for setting the target data;
Comparing the result data and the target data logically, a comparison evaluation unit that calculates a higher evaluation value for the result data having a higher degree of matching with the target data;
An automatic optimization unit that automatically determines a setting value of the image processing algorithm based on the evaluation value;
Have
The result data is for extracting one or a plurality of parts in an image corresponding to the image data, and a plurality of coordinate points form a closed space on the target data designation input screen. The comparative evaluation unit gives a high evaluation value when the corresponding part is included in the closed space.
An image analysis support apparatus characterized by that .
請求項に記載の画像分析支援装置において、
前記閉空間に指定された個数の部位が含まれていれば高評価値を与えて良いことを示す論理条件を、前記目標データの指定入力画面上における部位数の指定により表す
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 9 ,
A logical condition indicating that a high evaluation value may be given if the specified number of parts are included in the closed space is expressed by specifying the number of parts on the designation input screen of the target data. Image analysis support device.
請求項1に記載の画像分析支援装置において、
前記自動最適化部は、前記評価値が所定のしきい値未満のときには前記設定データを変更し、前記評価値が所定しきい値以上のときには前記設定データを最終結果とする
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 1,
The automatic optimization unit changes the setting data when the evaluation value is less than a predetermined threshold value, and sets the setting data as a final result when the evaluation value is equal to or more than a predetermined threshold value. Image analysis support device.
請求項1に記載の画像分析支援装置において、
前記結果データが1つ又は複数の座標値で与えられるとき、前記目標データは、目標とする座標点と各座標点に対する許容範囲の情報で与えられる
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 1,
When the result data is given as one or a plurality of coordinate values, the target data is given as target coordinate points and permissible range information for each coordinate point.
請求項12に記載の画像分析支援装置において、
前記目標データは、複数の座標点が同じグループに属するか否かを指定するリンク情報を含む
ことを特徴とする画像分析支援装置。
The image analysis support device according to claim 12 ,
The target data includes link information that designates whether or not a plurality of coordinate points belong to the same group.
入力された画像データに所定の画像処理アルゴリズムを適用し、結果データを出力する処理と、
前記結果データの評価に使用する目標データを、前記目標データの設定用に入力された前記画像データに対応する画像上の座標点として受け付ける処理と、
前記結果データと前記目標データを論理演算的に比較し、前記目標データとの合致度が高い結果データほど高評価値を算出する処理と、
前記評価値に基いて、前記画像処理アルゴリズムの設定値を自動的に決定する処理と
を有し、
前記結果データが、前記画像データに対応する画像内の1つ又は複数の部位を抽出するものであるとき、前記目標データは、複数の座標点が同じグループに属するか否かを指定するリンク情報を含む、
画像分析支援方法。
A process of applying a predetermined image processing algorithm to input image data and outputting result data;
Processing for receiving target data used for evaluation of the result data as coordinate points on an image corresponding to the image data input for setting the target data;
The result data and the target data are logically compared, and the result data having a higher degree of coincidence with the target data calculates a higher evaluation value;
Based on the evaluation value, it has a processing for automatically determining the set values of the image processing algorithms,
When the result data is for extracting one or a plurality of parts in the image corresponding to the image data, the target data is link information that specifies whether or not a plurality of coordinate points belong to the same group including,
Image analysis support method.
JP2012245916A 2012-11-08 2012-11-08 Image analysis support apparatus and method Active JP6161256B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012245916A JP6161256B2 (en) 2012-11-08 2012-11-08 Image analysis support apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012245916A JP6161256B2 (en) 2012-11-08 2012-11-08 Image analysis support apparatus and method

Publications (2)

Publication Number Publication Date
JP2014095961A JP2014095961A (en) 2014-05-22
JP6161256B2 true JP6161256B2 (en) 2017-07-12

Family

ID=50939002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012245916A Active JP6161256B2 (en) 2012-11-08 2012-11-08 Image analysis support apparatus and method

Country Status (1)

Country Link
JP (1) JP6161256B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463773A (en) * 2014-12-22 2015-03-25 深圳市八零年代网络科技有限公司 Movable graph efficient output method and system
JP2021051617A (en) * 2019-09-26 2021-04-01 東洋製罐グループホールディングス株式会社 Image processing system and image processing program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272845A (en) * 1998-03-23 1999-10-08 Denso Corp Image recognition device

Also Published As

Publication number Publication date
JP2014095961A (en) 2014-05-22

Similar Documents

Publication Publication Date Title
TWI737659B (en) Method of deep learning - based examination of a semiconductor specimen and system thereof
JP6078234B2 (en) Charged particle beam equipment
KR102195029B1 (en) Defect Classification Device and Defect Classification Method
KR101934313B1 (en) System, method and computer program product for detection of defects within inspection images
TW490591B (en) Pattern inspection apparatus, pattern inspection method, and recording medium
JP5699788B2 (en) Screen area detection method and system
JP5152231B2 (en) Image processing method and image processing apparatus
US8068662B2 (en) Method and system for determining a defect during charged particle beam inspection of a sample
JP4824987B2 (en) Pattern matching apparatus and semiconductor inspection system using the same
JP5948138B2 (en) Defect analysis support device, program executed by defect analysis support device, and defect analysis system
JP5313939B2 (en) Pattern inspection method, pattern inspection program, electronic device inspection system
JP2019109563A (en) Data generation device, data generation method, and data generation program
JP2013257304A5 (en)
JP5339065B2 (en) Object tracking device
KR101032446B1 (en) Apparatus and method for detecting a vertex on the screen of a mobile terminal
KR102249836B1 (en) Method for non-destructive inspection based on image and Computer-readable storage medium
US10296702B2 (en) Method of performing metrology operations and system thereof
JP2011134012A (en) Image processor, image processing method for the same and program
KR101615829B1 (en) Semiconductor inspecting system
JP6161256B2 (en) Image analysis support apparatus and method
CN115953399B (en) Industrial part structural defect detection method based on contour features and SVDD
JP5684550B2 (en) Pattern matching apparatus and semiconductor inspection system using the same
CN112215032A (en) Method, device, electronic device and program medium for identifying target in image
JP2016217872A (en) Inspection device, inspection method, program, and storage media
KR102561093B1 (en) Apparatus and Method of Filter Extraction for Defect Detection of Semiconductor Apparatus, and Defect Detection System Using the Same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170613

R150 Certificate of patent or registration of utility model

Ref document number: 6161256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350