JP2022187070A - 画像認識システム - Google Patents

画像認識システム Download PDF

Info

Publication number
JP2022187070A
JP2022187070A JP2021094877A JP2021094877A JP2022187070A JP 2022187070 A JP2022187070 A JP 2022187070A JP 2021094877 A JP2021094877 A JP 2021094877A JP 2021094877 A JP2021094877 A JP 2021094877A JP 2022187070 A JP2022187070 A JP 2022187070A
Authority
JP
Japan
Prior art keywords
image recognition
unit
importance
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021094877A
Other languages
English (en)
Inventor
俊典 山内
Toshinori Yamauchi
昌義 石川
Masayoshi Ishikawa
武史 柿沼
Takeshi Kakinuma
正樹 長谷川
Masaki Hasegawa
健太郎 大平
Kentaro Ohira
康隆 豊田
Yasutaka Toyoda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi High Tech Corp
Original Assignee
Hitachi High Tech Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi High Tech Corp filed Critical Hitachi High Tech Corp
Priority to JP2021094877A priority Critical patent/JP2022187070A/ja
Priority to US17/740,825 priority patent/US20220392187A1/en
Priority to CN202210516517.0A priority patent/CN115510939A/zh
Priority to KR1020220057600A priority patent/KR20220165189A/ko
Priority to TW111118053A priority patent/TW202248897A/zh
Publication of JP2022187070A publication Critical patent/JP2022187070A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7796Active pattern-learning, e.g. online learning of image or video features based on specific statistical tests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2458Special types of queries, e.g. statistical queries, fuzzy queries or distributed queries
    • G06F16/2462Approximate or statistical queries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/476Contour-based spatial representations, e.g. vector-coding using statistical shape modelling, e.g. point distribution models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30121CRT, LCD or plasma display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Abstract

【課題】画像に含まれる形状を認識する画像認識システムにおいて、画像内に複数の形状が映る場合であっても、それら形状の個別の予測結果についてその成否を判定することができる技術を提供する。【解決手段】本発明に係る画像認識システムは、画像内において認識した対象形状ごとにかつ特徴量の種類ごとに特徴量の重要度を計算し、前記重要度と特徴量の種類ごとの統計量とを前記対象形状ごとに比較することにより、認識結果の正否を判定する。【選択図】図2

Description

本発明は、画像に含まれる形状を認識する画像認識システムに関する。
半導体や液晶パネルなどの製造ラインにおいては、工程初期に不良が発生すると、その後の工程の作業は無駄になってしまう。そこで、工程の要所毎に検査工程を設けて、所定の歩留まりを得られていることを確認・維持しながら製造を進める。これらの検査工程においては、例えば、走査型電子顕微鏡(SEM:Scanning Electron Microscope)を応用した測長SEM(CD-SEM:Critical Dimension-SEM)や欠陥レビューSEM(Defect Review SEM)などが用いられている。
検査工程においては、検査装置が撮像する画像に対して欠陥や異常の有無を確認する。近年、機械学習で構築された画像処理モデルによって高精度な自動検査が可能となった。しかし検査の対象となる試料の特徴は製造プロセスによって変わるので、高精度な検査精度を維持するためには製造現場で画像処理モデルを再学習する必要がある。その場合、再学習モデルと既存モデルとの間の性能比較評価や、再学習モデルが正常に機能しているかの確認、といったことが必要である。すなわち画像認識モデルの性能評価が必要となってくる。一般に性能評価はラベル付けしたデータもしくは第3者による確認によって実施されるが、製造現場ではコストや時間などの観点からこれらを実施するのは困難である。そこでラベルなしデータにより自動でモデルの性能を評価する必要がある。
本技術分野の背景技術としては、例えば、特許文献1のような技術がある。特許文献1は『画像の特徴量に基づき分類を行う画像分類装置および画像分類方法において、簡便な方法で、分類結果の確からしさに関する情報を提示することのできる技術を提供する。』ことを課題として、『任意の分類アルゴリズムによりカテゴリAに分類された欠陥画像Xを算出対象として、その分類結果の確度を算出する。複数種の特徴量V1~V8のそれぞれに対して、当該分類カテゴリに属する典型的な画像が有する値の範囲を典型範囲として求めておく。算出対象画像Xを表す各特徴量のうち、その値が典型範囲内にあるものに投票を行い、特徴量の種類数に対する得票数の比を確度として出力する。』という技術を記載している(要約参照)。
特開2013-077127号公報
上記特許文献1の技術は、分類アルゴリズム(画像認識モデル)による分類結果の確からしさを表す確度を出力する。これにより画像認識モデルの分類結果の正否を判定できるので、ラベルなしデータにより自動でモデルの性能評価が可能であると考えられる。
しかしながら、特許文献1記載のような従来の画像分類装置は、1つの入力画像全体に対して特徴量を計算する。換言すると、画像内に複数の欠陥が存在する場合であっても、その複数欠陥の全体を識別する特徴量を計算することになる。そうすると、その特徴量によって識別されるのは複数の欠陥の集合体であり、個々の欠陥を個別識別しているわけではない。したがって、個々の欠陥の予測結果についてその成否を判定することは困難である。
本発明は、上記のような課題に鑑みてなされたものであり、画像に含まれる形状を認識する画像認識システムにおいて、画像内に複数の形状が映る場合であっても、それら形状の個別の予測結果についてその成否を判定することができる技術を提供することを目的とする。
本発明に係る画像認識システムは、画像内において認識した対象形状ごとにかつ特徴量の種類ごとに特徴量の重要度を計算し、前記重要度と特徴量の種類ごとの統計量とを前記対象形状ごとに比較することにより、認識結果の正否を判定する。
本発明に係る画像認識システムによれば、画像に含まれる形状を認識する画像認識システムにおいて、画像内に複数の形状が映る場合であっても、それら形状の個別の予測結果についてその成否を判定することができる。上記以外の課題、構成、効果は、以下の実施形態の説明により明らかにされる。
実施形態1に係る画像認識システム100の構成を概念的に示す図である。 画像認識システム100の構成を示すブロック図である。 画像認識システム100の動作を説明するフローチャートである。 特徴量重要度算出部14の処理を示すフローチャートである。 特徴量重要度算出部14によって求まる結果の1例である。 画像認識システム100の構成を示すブロック図である。 統計量算出部21が統計量を求める手順を説明するフローチャートである。 S114において特徴量重要度データベース(DB)20へ格納するデータの1例である。 S116において統計情報データベース(DB)15へ格納するデータの1例である。 分布の比較による予測結果の正否判定を概念的に示す図である。 実施形態2に係る画像認識システム100の構成を示すブロック図である。 実施形態2における画像認識システム100の動作を説明するフローチャートである。 判定結果データベース(DB)26に保存された誤認識判定結果と、評価結果データベース(DB)28に保存されたモデル評価結果を表示するGUIの例である。 比較結果データベース(DB)30に保存された比較結果を表示するGUIの例である。 実施形態3に係る画像認識システム100の動作を説明するフローチャートである。 表示部31が出力するGUIの例である。
<実施の形態1>
図1は、本発明の実施形態1に係る画像認識システム100の構成を概念的に示す図である。画像認識システム100は、画像認識部2、誤認識判定部6などを備える。画像認識部2は、撮像画像1に対して予測を実施することにより予測結果3を取得する。誤認識判定部6は、予測結果3の正否を判定する。
予測結果3に示すように、画像認識部2は撮像画像1に映る欠陥の種類と位置を、予測結果4と予測結果5のようにそれぞれ個別に予測する。誤認識判定部6は画像認識部2によって予測された結果を入力とし、それら結果の正否を個別に判定する。つまり誤認識判定部6は予測された結果の領域毎に予測された欠陥の種類が正しいか否かを判定し、予測結果4については判定結果7、予測結果5については判定結果8として出力する。
図2は、画像認識システム100の構成を示すブロック図である。図2を用いて、図1で説明した機能を実現するための具体的な構成について説明する。
検査装置10は、試料9の撮像画像1を撮像する。試料9は例えば半導体ウエハである。検査装置10は例えば、ミラー電子を結像するミラー電子顕微鏡による欠陥検査装置や光学式の欠陥検査装置などが該当する。
画像認識部2は、取得された撮像画像1に対して欠陥検査を実施する。画像認識部2は撮像画像1から特徴量を抽出し、抽出した特徴量から撮像画像1に映る欠陥を検出する。画像認識部2は、撮像画像1に複数の欠陥が映っている場合、それら欠陥を個別に予測する。したがって画像認識部2は、欠陥の種類と位置を予測可能な画像認識モデルを備える。画像認識部2が備える画像認識モデルとしては、例えば、CNN(Convolution Neural Network)で構成されたSSD(Single Shot Multibox Detector)やRetinaNetなどを用いることができる。
誤認識判定部6は、特徴量重要度算出部14、統計情報データベース(DB)15、比較部16を備える。各構成部の処理内容の詳細は後述する。
特徴量重要度算出部14は、予測結果13を入力とし、予測結果13から特徴量重要度を求める。特徴量重要度は、画像認識部2が抽出した特徴量が予測結果に対して有する重要度を表している。重要度の具体例については後述する。
統計情報データベース(DB)15は、特徴量重要度算出部14が求めた特徴量重要度に関する統計量を保存している。
比較部16は、特徴量重要度算出部14が求めた特徴量重要度と統計情報データベース(DB)15に保存されている統計量とを比較する。比較部16は、特徴量重要度算出部14が求めた特徴量重要度が統計情報データベース(DB)15に保存されている統計量から逸脱する場合には、予測結果13は誤りと判定し、判定結果17として出力する。
図3は、画像認識システム100の動作を説明するフローチャートである。以下図3の各ステップについて説明する。
ステップS101において、検査装置10は試料9の撮像画像1を撮像する。
ステップS102において、画像認識部2は撮像画像1に対して画像処理を実施することにより、撮像画像1に映っている欠陥の種類と位置を予測し、予測結果13として出力する。
ステップS103において、特徴量重要度算出部14は予測結果毎に特徴量重要度を求める。
ステップS104において、比較部16は、特徴量重要度算出部14が求めた特徴量重要度と統計情報データベース(DB)15に保存されている統計量とを比較することにより、予測結果毎に予測結果の正否を判定する。
図4から図8を参照して、誤認識判定部6を構成する特徴量重要度算出部14、統計情報データベース(DB)15、比較部16について、各構成部の処理内容の詳細を説明する。
図4は、特徴量重要度算出部14の処理を示すフローチャートである。以下図4の各ステップについて説明する。
ステップS105において、特徴量重要度算出部14は誤差逆伝搬を用いて、予測結果に対する画像認識部2の特徴量マップの微分を計算する。この微分値を用いて、予測結果に対する重要度を特徴量マップのチャンネル(特徴量の種別)毎に求める。特徴量マップは撮像画像1に対して抽出された特徴量を保持している。本ステップの処理を、数1に示す。
Figure 2022187070000002
数1においてyc,box_preは画像認識部2によって予測されたクラスc(欠陥の種類)に対するスコアであり、box_preは予測した位置を表す。Ai,j,kは画像認識部2の特徴量マップを表し、i、jはそれぞれ特徴量マップの縦と横のピクセル番号、kはチャンネル番号を表す。u,vはそれぞれ特徴量マップの縦と横のピクセル数を表す。zはu×vである。つまりステップS105によって、クラスがcであり位置がbox_preであるスコア値に対する特徴量マップの微分を計算し、チャンネル毎に平均値を計算する。これにより求まるαk,c,box_preは、チャンネル番号kの特徴量マップが保持する特徴量の、予測結果(クラスがc、位置がbox_pre)に対する重要度を表す。重要度はチャンネル毎に求めるので、例えばチャンネル数が100の場合は100通りの重要度が求まる。撮像画像1に欠陥が複数映り予測結果が複数ある場合は、予測結果毎に重要度を求める。この重要度は、特徴量の種別kが認識結果に対して与える影響度を表していることになる。
ステップS106において、特徴量重要度算出部14は、特徴量マップが保持する特徴量を、ステップS105でもとめた重要度と予測結果の領域情報で重みづけする。この処理を数2に示す。Sk,c,box_preは予測結果の領域情報であり数3によって求まる。Sk,c,box_preは、チャンネル番号kの特徴量マップの各ピクセルにおける、予測結果(クラスがc、位置がbox_pre)に対する領域の重要度を表す。予測結果の領域情報としては、予測結果の領域内を1、それ以外の領域を0としたマスクや、あらかじめ重要領域を設定しておいたテンプレート領域なども用いることができる。撮像画像1に欠陥が複数映り予測結果が複数ある場合は、予測結果毎に数2の処理を実施する。ステップS106において、特徴量重要度算出部14は、特徴量マップが保持する特徴量を、ステップS105で求めた重要度のみで重みづけしてもよい。Gk,c,box_preまたはSk,c,box_preは、画像領域が認識結果に対して与える影響度を表していることになる。
Figure 2022187070000003
Figure 2022187070000004
ステップS107において、特徴量重要度算出部14は、ステップS106で求めたGk,c,box_preから特徴量重要度をチャンネル番号毎に求める。特徴量重要度は、例えば、Gk,c,box_preにおいて予測結果付近の領域のみの値に対し平均を計算することや、あらかじめ設定された閾値以上の値のみに対し平均を計算することなどによって求めることができる。上記処理によってチャンネル番号別に特徴量重要度を求めることができるので、例えば、チャンネル数が100の場合は100通りの特徴量重要度が求まる。撮像画像1に欠陥が複数映り予測結果が複数ある場合は、予測結果毎に特徴量重要度を求める。
ステップS108において、特徴量重要度算出部14は、ステップS107で求めた特徴量重要度を値の降順でソートし、予測結果(クラスがc、位置がbox_pre)に対する重要なチャンネルA個(第1個数)を決定する。撮像画像1に欠陥が複数映り予測結果が複数の場合は、予測結果毎に上記処理を実施する。
図5は、特徴量重要度算出部14によって求まる結果の1例である。図5に示すように、ステップS105からステップS108によって、予測結果に対する重要なチャンネルA個が求まる。
図6から図8を用いて、統計情報データベース(DB)15に保存されている統計量の求め方について説明する。
図6は、画像認識システム100の構成を示すブロック図である。画像認識システム100は、図2で説明した構成に加えて、特徴量重要度データベース(DB)20を備えてもよい。
画像認識部2は学習画像18に対して予測を実施し、予測結果19を出力する。学習画像18は画像認識部2の学習時に使った画像である。学習画像12は学習に使った画像の一部を使ってもよい。
特徴量重要度算出部14は予測結果19に対して特徴量重要度を計算し、その結果を特徴量重要度データベース(DB)20に保存する。
統計量算出部21は特徴量重要度データベース(DB)20に保存されている結果から統計量を計算し、結果を統計情報データベース(15)に保存する。統計量の具体例については後述する。
図7は、統計量算出部21が統計量を求める手順を説明するフローチャートである。以下図7の各ステップについて説明する。
ステップS109において、画像認識部2は学習画像18に対し予測を実施して予測結果19を出力する。
ステップS110において、特徴量重要度算出部14は誤差逆伝搬により予測結果19に対する画像認識部2の特徴量マップの微分を計算し、予測結果19に対する重要度を特徴量マップのチャンネル毎に求める。計算手順はS105と同じである。
ステップS111において、特徴量重要度算出部14は特徴量マップが保持する特徴量を、重要度と予測結果の領域情報で重みづけする。計算手順はS106と同じである。
ステップS112において、特徴量重要度算出部14はステップS111の結果から、特徴量重要度をチャンネル毎に求める。計算手順はS107と同じである。
ステップS113において、特徴量重要度算出部14は特徴量重要度を値の降順でソートし、予測に対する重要なチャンネルB個(第2個数)を決定する。
ステップS114において、特徴量重要度算出部14は結果を特徴量重要度データベース(DB)20に保存する。この際、予測結果のクラス別に保存する。本ステップの結果の1例は図8Aにおいて説明する。
ステップS115において、全ての学習画像に対し処理を実施したか否かを判断する。全ての学習画像に対し処理を実施した場合(YES)はステップS116に進む。全ての学習画像に対し処理を実施していない場合(NO)は、ステップS109に戻り、ステップS109以降の処理を再び実行する。
ステップS116において、統計量算出部21は特徴量重要度データベース(DB)20に保存されている結果から統計量を計算し、学習画像の予測に対する統計的に求めた重要チャンネルC個(第3個数)をクラス別に決定する。これは例えば、特徴量重要度データベース(DB)20に保存されている結果からクラスごとに、Rank B以内に入った回数が多い上位C個のチャンネル番号を決定することによる。本ステップの結果の1例は図8Bにおいて説明する。
ステップS117において、統計量算出部21は求めた結果をクラス別に統計情報データベース(DB)15に保存する。
図8Aは、S114において特徴量重要度データベース(DB)20へ格納するデータの1例である。図8Aに示すように、予測結果毎に求められた重要なチャンネルB個がクラス別に保存される。図8Aにおいて、1つの表は1つの予測結果(すなわち1つの欠陥を識別した結果)に対応する。
図8Bは、S116において統計情報データベース(DB)15へ格納するデータの1例である。図8Bに示すように、特徴量重要度データベース(DB)20から求めた重要なチャンネルC個がクラス別に保存される。
比較部16は、特徴量重要度算出部14が求めた特徴量重要度と、統計情報データベース(DB)15に保存されている特徴量重要度に関する統計量とを比較し、予測結果の正否を判定する。予測クラスがXの場合、特徴量重要度算出部14が求めた予測結果に対する重要なチャンネルA個と、統計情報データベース(DB)15に保存されているクラスXに対応する重要チャンネルC個を比較する。予測結果の正否判定は、例えば、特徴量重要度算出部14が求めた重要なチャンネルA個のうちN個(閾値)以上が、統計情報データベース(DB)15に保存されている重要チャンネルC個に含まれていれば正解、そうでなければ不正解として判定する。
図9は、分布の比較による予測結果の正否判定を概念的に示す図である。比較部16は特徴量重要度の分布と特徴量重要度の統計分布とを比較して予測結果の正否を判定してもよい。この場合、特徴量重要度算出部14は、予測結果に対しチャンネル番号と特徴量重要度に関する分布を求める。統計量算出部21は、学習画像の予測結果に対するチャンネル番号と特徴量重要度に関する統計分布をクラス別に統計情報データベース(DB)15へ格納する。比較部16は、予測結果に対し特徴量重要度算出部14が求めた分布と、統計情報データベース(DB)15に保存されている統計分布との間の距離を計算し、その距離が閾値D以下の大きさであるならば予測結果を正解、そうでなければ不正解として判定する。分布間の距離は、例えば、L1距離、L2距離、KL(Kullback-Leibler)などによって測定する。
<実施の形態1:まとめ>
本実施形態1に係る画像認識システム100は、画像特徴量が認識結果に対して与える影響の大きさを表すパラメータを用いて、特徴量重要度を対象形状ごとにかつ特徴量種別ごとに計算する。さらに、特徴量重要度とその統計量を比較することにより、認識結果の正否を判定する。特徴量重要度とその統計量との比較を対象形状ごとに実施するので、画像内に複数の対象形状が映っている場合であっても、その対象形状ごとに認識結果の正否を判定することができる。
本実施形態1に係る画像認識システム100は、画像領域が認識結果に対して与える影響の大きさを表すパラメータを用いて、特徴量重要度を対象形状ごとにかつ特徴量種別ごとに計算する。これにより、画像内の各部分に対象形状が分散している場合であっても、その対象形状ごとに認識結果の正否を判定することができる。
<実施の形態2>
図10は、本発明の実施形態2に係る画像認識システム100の構成を示すブロック図である。本実施形態2においては、誤認識判定部6の結果に基づき、画像認識モデルを評価または比較する。
モデルデータベース(DB)22は、教師データ、学習条件などを変えて学習した複数の画像認識モデルが保存されたデータベースである。
モデル読み込み部23は、モデルデータベース(DB)22からモデルを選択し、画像認識部2に読み込む。
評価画像24はモデルの評価をするための画像であり、ラベルなしデータである。これらは、例えば、検査装置によって撮像される画像から適当な画像を収取する。
判定結果データベース(DB)26は、誤認識判定部6による判定結果を保存するデータベースである。
モデル評価部27は、判定結果データベース(DB)26に保存されている結果から画像認識部2に読み込まれたモデルの性能を評価し、評価結果データベース(DB)28に保存する。
モデル比較部29は、評価結果データベース(DB)28に保存されている結果から、モデルを比較評価し、結果を比較結果データベース(DB)30に保存する。
モデル監視部32は判定結果データベース(DB)26に保存されている結果から、モデルの監視を行い、結果を監視データベース(DB)33に保存する。モデル監視部32および監視データベース(DB)33の詳細については後述の実施形態で説明する。
表示部31は、誤認識判定結果、モデル評価結果、モデル比較結果、モデル監視結果を表示する表示装置である。表示部31は、後述する各GUI(Graphical User Interface)を表示することもできる。
図11は、本実施形態2における画像認識システム100の動作を説明するフローチャートである。以下図11の各ステップについて説明する。
ステップS118において、モデル読み込み部23はモデルデータベース(DB)22からモデルを選択し読み込む。画像認識部2はそのモデルを取得する。
ステップS119において、画像認識部2は評価画像24に対し予測を実施して予測結果25を出力する。
ステップS120において、誤認識判定部6は予測結果25に対し、その結果の正否を判定し、判定結果データベース(DB)26に保存する。
ステップS121において、全ての評価画像に対し処理を実施したか否かを判断する。全ての評価画像に対し処理を実施した場合(YES)はステップS122に移行する。全ての評価画像に対し処理を実施していない場合(NO)はステップS119に戻り、ステップS119以降の処理を再実行する。
ステップS122において、モデル評価部27は判定結果データベース(DB)26に保存されている結果からモデルの性能を評価し、評価結果を評価モデルと関連付けて評価結果データベース(DB)28に保存する。
ステップS123において、モデルデータベース(DB)22に保存されている全てのモデルに対し処理を実施したか否かを判断する。全てのモデルに対し処理を実施した場合(YES)はステップS124に移行する。全てのモデルに対し処理を実施していない場合(NO)はS118に戻る。
ステップS124において、モデル比較部29は評価結果データベース(DB)28に保存されている結果から、モデルを比較評価し、結果を比較結果データベース(DB)30に保存する。
図12は、判定結果データベース(DB)26に保存された誤認識判定結果と、評価結果データベース(DB)28に保存されたモデル評価結果を表示するGUIの例である。図12に示すように、GUIには、(1)評価データ選択部、(2)モデル選択部、(3)画像選択部、(4)画像確認部、(5)予測・判定結果確認部、(6)クラス選択部、(7)評価結果確認部などが表示される。
(1)評価データ選択部によって評価データを選択し、(2)モデル選択部によってモデルを選択する。
(5)予測・判定結果確認部では、(3)画像選択部によって選択され(4)画像確認部に表示される画像に対する、画像認識部2の予測結果と、誤認識判定部6によるそれら予測結果に対する正否判定の判定結果が表示される。
(7)評価結果確認部では、モデル評価部27による評価結果が表示される。評価指標は、例えば、認識総数、推定誤認識数、推定誤認識率、推定正答率などである。(6)クラス選択部によってクラス毎の評価結果を表示することが可能である。
図13は、比較結果データベース(DB)30に保存された比較結果を表示するGUIの例である。図13に示すようにGUIには、(1)評価データ選択部、(2)比較条件設定部、(3)比較結果確認部などが表示される。
(1)評価データ選択部によって評価データを選択する。
(2)比較条件設定部では、モデルの比較評価を行う際の具体的な設定がなされる。例えば、比較対象として比較される指標や、モデル確信度などが設定される。モデル確信度は画像認識モデルの予測結果に対する「確からしさ」を定量的に示す指標であり、値が大きいほど、予測結果の蓋然性が高い。
(3)比較結果確認部には、(2)比較条件設定部で設定された条件で、複数のモデルに対する比較結果が表示される。例えば、クラス別に比較対象で評価した場合の最適モデルが表示される。
<実施の形態3>
図14は、本発明の実施形態3に係る画像認識システム100の動作を説明するフローチャートである。本実施形態3においては、誤認識判定部6の判定結果に基づき、モデルの状態を監視する。画像認識システム100の構成は実施形態2と同様である。
ステップS125において、検査終了か否かを判断する。検査終了の場合(YES)は本フローチャートを終了する。検査終了でない場合(NO)は、ステップS126に移行する。
ステップS126において、検査装置10は試料9の撮像画像1を撮像する。
ステップS127において、画像認識部2は、撮像画像1に対し予測を実施して予測結果25を出力する。
ステップS128において、誤認識判定部6は予測結果25に対し、その結果の正否を判定し、結果を判定結果データベース(DB)26に保存する。
ステップS129において、モデル監視部32はその時点における誤認識数の総数を集計し、結果を監視データベース(DB)33に保存する。モデル監視部32は認識総数と誤認識数の総数から推定誤認識率、推定正答率などを求めてもよい。
ステップS130において、検査期間内の誤認識数が閾値以上か否かを判断する。検査期間内の誤認識数が閾値以上の場合(YES)、ステップS131に移行し、モデル監視部32は警告を出す。検査期間内の誤認識数が閾値以上でない場合(NO)、ステップS125に戻り、ステップS125以降の処理を再実行する。検査期間内の推定誤認識率が閾値以上、検査期間内の推定正答率が閾値以下、などで判断してもよい。
図15は、表示部31が出力するGUIの例である。図15はGUIへの監視データベース(DB)33に保存された結果の表示例である。図15に示すように、GUIには、(1)期間選択部、(2)監視結果確認部などが表示される。
(2)監視結果確認部は、監視データベース(DB)33に保存されている結果を表示する。図15に示すように、例えば、横軸が検査期間、縦軸が推定誤認識数や推定誤認識率であるグラフが表示される。横軸の検査期間は、(1)期間選択部で変更可能である。図15の例では、1か月毎に推定誤認識率、推定誤認識率が集計され、あらかじめ設定しておく設定値を超えた場合に、モデル監視部32は警告を出す。
<本発明の変形例について>
本発明は上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記の実施形態は本発明に対する理解を助けるために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
以上の実施形態において、画像認識部2は予測結果として、欠陥の種類(クラス)と位置を出力することを説明した。本発明の画像認識システム100は、画像認識部2が入力画像のピクセル毎にクラス分類を実施する(セグメンテーション)場合においても適用可能である。この場合、例えば、画像認識部2の予測結果で得られるセグメント領域を指定領域として誤認識判定部6の入力とする。
以上の実施形態において、欠陥以外の任意の形状が画像内に移っている場合においてその形状を認識する画像認識システムに対して、本発明を適用することもできる。すなわち画像内の物体の種類と位置を認識するシステム一般において、本発明を適用することができる。
以上の実施形態において、あらかじめ検査対象となる試料の画像(典型的画像)を取得しておき、画像認識部2の予測結果と典型画像を比較することにより、予測結果の正否を判定してもよい。
以上の実施形態において、特徴量重要度算出部14は、例えば、ユーザが指定した領域における代表ピクセルが持つクラススコアに対し図4に示す処理を実施することにより、特徴量重要度を求めることができる。代表ピクセルは、例えば、入力領域において最も高いクラススコアを持つピクセルを選択するなどによって決定する。統計量算出部21は、画像認識部の学習に使った画像に対する予測結果の指定領域毎に、図7に示したフローに従って特徴量重要度に関する統計量を求める。上記処理により、誤認識判定部6は画像認識部2の予測結果における指定領域毎に、予測結果の正否を判定でき、その結果に基づき、モデル評価、モデル比較、モデル監視が可能である。
以上の実施形態において、数2の係数αを省略し、AとSのみによってGを計算してもよい。本発明者の実験によれば、この場合であっても、正誤判定精度は十分であったことを付言しておく。
以上の実施形態において、画像認識システム100が備える各機能部(画像認識部2、誤認識判定部6、統計量算出部21、モデル読み込み部23、モデル評価部27、モデル比較部29、表示部31、モデル監視部32)は、その機能を実装した回路デバイスなどのハードウェアによって構成することもできるし、その機能を実装したソフトウェアを演算装置(例えばCentral Processing Unit)が実行することによって構成することもできる。
以上の実施形態において、各データベースは、レコードを記録するデータファイルを記憶装置に格納することによって構成することができる。データベースに対してアクセスするデータベース管理機能は、画像認識システム100が備える各機能部が実装してもよいし、データベース管理システムを別途設けてこれを介してレコードへアクセスするようにしてもよい。
以上の実施形態において、検査装置10は画像認識システム100の一部として構成してもよいし、画像認識システム100は検査装置10から独立した装置として構成してもよい。
100:画像認識システム
2:画像認識部
6:誤認識判定部
9:試料
10:検査装置
14:特徴量重要度算出部
15:統計情報データベース(DB)
16:比較部
20:特徴量重要度データベース(DB)
21:統計量算出部
22:モデルデータベース(DB)
23:モデル読み込み部
26:判定結果データベース(DB)
27:モデル評価部
28:評価結果データベース(DB)
29:モデル比較部
30:比較結果データベース(DB)
31:表示部
32:モデル監視部
33:監視データベース(DB)

Claims (12)

  1. 画像に含まれる形状を認識する画像認識システムであって、
    機械学習を実施した結果に基づいて入力画像から特徴量を抽出し、前記特徴量を用いて前記入力画像に含まれる対象形状を認識する、画像認識部、
    前記画像認識部による認識結果の正否を判定する誤認識判定部、
    を備え、
    前記誤認識判定部は、
    前記特徴量の重要度を計算する特徴量重要度算出部、
    前記重要度に関する統計量を格納する統計情報データベース、
    前記重要度と前記統計量を比較することにより前記認識結果の正否を判定する比較部、
    を備え、
    前記特徴量重要度算出部は、前記画像認識部が認識した前記対象形状ごとに、かつ前記特徴量の種類ごとに、前記重要度を計算し、
    前記統計情報データベースは、前記対象形状の種類ごとに、かつ前記特徴量の種類ごとに、前記統計量を格納しており、
    前記比較部は、前記特徴量重要度算出部が計算した前記特徴量の種類ごとの前記重要度と、前記統計情報データベースが格納している前記特徴量の種類ごとの前記統計量とを、前記画像認識部が認識した前記対象形状ごとに比較することにより、前記画像認識部が認識した前記対象形状ごとに前記認識結果の正否を判定する
    ことを特徴とする画像認識システム。
  2. 前記特徴量重要度算出部は、前記画像認識部が前記対象形状を認識する際における前記特徴量の影響の大きさを表す特徴量重要度パラメータを用いて、前記重要度を計算し、
    前記特徴量重要度算出部は、前記特徴量重要度パラメータに加えて、前記画像認識部が前記対象形状を認識する際における前記入力画像内の画像領域の影響の大きさを表す領域重要度パラメータを用いて、前記重要度を計算する
    ことを特徴とする請求項1記載の画像認識システム。
  3. 前記特徴量重要度算出部は、前記画像認識部が前記対象形状を認識する際における前記特徴量の影響の大きさを表す特徴量重要度パラメータを用いて、前記重要度を計算し、
    前記特徴量重要度算出部は、前記入力画像のピクセル位置ごとの前記特徴量の増分に対する前記認識結果の確信度スコアの増分の比率を用いて、前記特徴量重要度パラメータを計算する
    ことを特徴とする請求項1記載の画像認識システム。
  4. 前記特徴量重要度算出部は、前記画像認識部が前記対象形状を認識する際における前記入力画像内の画像領域の影響の大きさを表す領域重要度パラメータを用いて、前記重要度を計算し、
    前記特徴量重要度算出部は、前記認識結果の確信度スコアを前記特徴量によって微分した微分値と、前記入力画像内における前記微分値の最大値との間の比率を、前記画像領域ごとに求めることにより、前記領域重要度パラメータを計算する
    ことを特徴とする請求項1記載の画像認識システム。
  5. 前記画像認識システムはさらに、前記統計情報データベースを作成する統計量算出部を備え、
    前記統計量算出部は、前記特徴量の種別を前記重要度が高い順に第1個数列挙した第1リストを、前記画像認識部が認識した前記対象形状ごとに作成し、
    前記統計量算出部は、各前記第1リストのなかに含まれている頻度が高い順に前記特徴量の種別を第2個数列挙した第2リストを、前記画像認識部が認識した前記対象形状ごとに、前記統計量として前記統計情報データベースに格納し、
    前記特徴量重要度算出部は、前記特徴量の種別を前記重要度が高い順に第3個数列挙した第3リストを、前記画像認識部が認識した前記対象形状ごとに作成し、
    前記比較部は、前記第3リストが列挙している前記特徴量の種別のうち閾値個数以上が前記第2リストのなかに含まれている場合は、その対象形状についての前記認識結果が正解であると判定し、そうでなければ不正解であると判定する
    ことを特徴とする請求項1記載の画像認識システム。
  6. 前記画像認識システムはさらに、前記統計情報データベースを作成する統計量算出部を備え、
    前記特徴量重要度算出部は、前記特徴量の種別と前記重要度の分布を記述した第1分布を、前記画像認識部が認識した前記対象形状ごとに作成し、
    前記統計量算出部は、前記特徴量の種別と前記重要度の分布を記述した第2分布を、前記画像認識部が認識した前記対象形状の種別ごとに作成し、
    前記比較部は、前記第1分布と前記第2分布との間の距離を計算し、
    前記比較部は、前記距離が閾値以下である場合は、その対象形状についての前記認識結果が正解であると判定し、そうでなければ不正解であると判定する
    ことを特徴とする請求項1記載の画像認識システム。
  7. 前記画像認識システムはさらに、
    1以上の前記入力画像について前記画像認識部による認識結果または前記誤認識判定部による判定結果を格納する判定結果データベース、
    前記画像認識部の性能を評価した結果を格納する評価結果データベース、
    前記判定結果データベースが格納している結果から前記画像認識部の性能を評価しその評価結果を前記評価結果データベースに格納するモデル評価部、
    を備える
    ことを特徴とする請求項1記載の画像認識システム。
  8. 前記画像認識システムはさらに、
    画像に含まれる形状を認識するための機械学習をあらかじめ実施した画像認識モデルを1以上格納するモデルデータベース、
    前記モデルデータベースが格納している前記画像認識モデルを前記画像認識部に読み込ませるモデル読み込み部、
    前記評価結果データベースが格納している1以上の評価結果に基づき前記画像認識モデルを評価するモデル比較部、
    を備え、
    前記誤認識判定部は、前記画像認識モデルと関連付けて前記判定結果を前記判定結果データベースに格納し、
    前記モデル評価部は、前記画像認識モデルと関連付けて前記評価結果を前記評価結果データベースに格納する
    ことを特徴とする請求項7記載の画像認識システム。
  9. 前記画像認識システムはさらに、前記判定結果データベースが格納している前記判定結果に基づき、前記画像認識部が異常な動作をしているか否かを判定し、異常な動作をしている場合はその旨の警告を出力する、モデル監視部を備える
    ことを特徴とする請求項7記載の画像認識システム。
  10. 前記画像認識部は、畳み込みニューラルネットワークを用いた機械学習により、前記対象形状を認識する
    ことを特徴とする請求項1記載の画像認識システム。
  11. 前記画像認識部は、前記入力画像に映っている物体の種類と位置を、前記対象形状によって認識する
    ことを特徴とする請求項1記載の画像認識システム。
  12. 前記誤認識判定部は、あらかじめ入力された典型的画像と、前記入力画像とを比較することにより、前期画像認識部による認識結果の成否を判定する
    ことを特徴とする請求項1記載の画像認識システム。
JP2021094877A 2021-06-07 2021-06-07 画像認識システム Pending JP2022187070A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021094877A JP2022187070A (ja) 2021-06-07 2021-06-07 画像認識システム
US17/740,825 US20220392187A1 (en) 2021-06-07 2022-05-10 Image recognition system
CN202210516517.0A CN115510939A (zh) 2021-06-07 2022-05-11 图像识别系统
KR1020220057600A KR20220165189A (ko) 2021-06-07 2022-05-11 화상 인식 시스템
TW111118053A TW202248897A (zh) 2021-06-07 2022-05-13 影像辨識系統

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021094877A JP2022187070A (ja) 2021-06-07 2021-06-07 画像認識システム

Publications (1)

Publication Number Publication Date
JP2022187070A true JP2022187070A (ja) 2022-12-19

Family

ID=84284316

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021094877A Pending JP2022187070A (ja) 2021-06-07 2021-06-07 画像認識システム

Country Status (5)

Country Link
US (1) US20220392187A1 (ja)
JP (1) JP2022187070A (ja)
KR (1) KR20220165189A (ja)
CN (1) CN115510939A (ja)
TW (1) TW202248897A (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5718781B2 (ja) 2011-09-30 2015-05-13 株式会社Screenホールディングス 画像分類装置および画像分類方法

Also Published As

Publication number Publication date
US20220392187A1 (en) 2022-12-08
CN115510939A (zh) 2022-12-23
KR20220165189A (ko) 2022-12-14
TW202248897A (zh) 2022-12-16

Similar Documents

Publication Publication Date Title
TWI720227B (zh) 用於工具狀況監視及匹配之系統及方法
JP4132229B2 (ja) 欠陥分類方法
US7062081B2 (en) Method and system for analyzing circuit pattern defects
TWI706484B (zh) 將客製化度量與全球分類法結合以在極端高產能下監控加工工具狀況之基於晶圓及批量之階級式方法
US7113628B1 (en) Defect image classifying method and apparatus and a semiconductor device manufacturing process based on the method and apparatus
US8428336B2 (en) Inspecting method, inspecting system, and method for manufacturing electronic devices
US9020237B2 (en) Method for optimizing observed image classification criterion and image classification apparatus
US20120316818A1 (en) System for monitoring multi-orderable measurement data
US9280814B2 (en) Charged particle beam apparatus that performs image classification assistance
KR102530950B1 (ko) 반도체 시편에서의 결함들의 분류
CN115360116B (zh) 一种晶圆的缺陷检测方法及系统
KR20190098271A (ko) 광학 도구에 의해 캡처되는 결함 및 분류기를 위한 진단 방법
TWI783400B (zh) 誤差因子的推定裝置及推定方法
US6828776B2 (en) Method for analyzing defect inspection parameters
JP2022187070A (ja) 画像認識システム
TWI801973B (zh) 錯誤因素之推定裝置及推定方法
JP7390851B2 (ja) 欠陥分類装置、欠陥分類プログラム
CN117529803A (zh) 用于主动良率管理的制造指纹
CN118037704A (en) Wafer defect detection method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240205