JP2023145412A - 欠陥検出方法及びシステム - Google Patents
欠陥検出方法及びシステム Download PDFInfo
- Publication number
- JP2023145412A JP2023145412A JP2023051445A JP2023051445A JP2023145412A JP 2023145412 A JP2023145412 A JP 2023145412A JP 2023051445 A JP2023051445 A JP 2023051445A JP 2023051445 A JP2023051445 A JP 2023051445A JP 2023145412 A JP2023145412 A JP 2023145412A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature map
- defect
- scan
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000007547 defect Effects 0.000 title claims abstract description 130
- 238000001514 detection method Methods 0.000 title claims abstract description 38
- 238000013528 artificial neural network Methods 0.000 claims abstract description 99
- 238000012549 training Methods 0.000 claims description 46
- 238000002604 ultrasonography Methods 0.000 claims description 40
- 238000012360 testing method Methods 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 21
- 230000015654 memory Effects 0.000 claims description 9
- 230000001537 neural effect Effects 0.000 claims 1
- 230000002950 deficient Effects 0.000 abstract description 8
- 235000012431 wafers Nutrition 0.000 abstract description 8
- 239000010410 layer Substances 0.000 description 35
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 8
- 238000013459 approach Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 7
- 238000012545 processing Methods 0.000 description 7
- 238000013526 transfer learning Methods 0.000 description 6
- 238000007635 classification algorithm Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000009659 non-destructive testing Methods 0.000 description 4
- 238000003491 array Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000007689 inspection Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000701 chemical imaging Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011229 interlayer Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000007639 printing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/0008—Industrial image inspection checking presence/absence
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N29/00—Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
- G01N29/04—Analysing solids
- G01N29/06—Visualisation of the interior, e.g. acoustic microscopy
- G01N29/0654—Imaging
- G01N29/069—Defect imaging, localisation and sizing using, e.g. time of flight diffraction [TOFD], synthetic aperture focusing technique [SAFT], Amplituden-Laufzeit-Ortskurven [ALOK] technique
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N29/00—Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
- G01N29/44—Processing the detected response signal, e.g. electronic circuits specially adapted therefor
- G01N29/4481—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2291/00—Indexing codes associated with group G01N29/00
- G01N2291/02—Indexing codes associated with the analysed material
- G01N2291/028—Material parameters
- G01N2291/0289—Internal structure, e.g. defects, grain size, texture
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2291/00—Indexing codes associated with group G01N29/00
- G01N2291/26—Scanned objects
- G01N2291/269—Various geometry objects
- G01N2291/2697—Wafer or (micro)electronic parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30148—Semiconductor; IC; Wafer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/06—Recognition of objects for industrial automation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Multimedia (AREA)
- Pathology (AREA)
- Immunology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Biochemistry (AREA)
- Quality & Reliability (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
- Image Processing (AREA)
Abstract
【課題】ウエハ等の欠陥を発見し、欠陥を分類する能力を改善する。【解決手段】自動欠陥検出及び分類システムは、1つ以上のコンピューティング・デバイスが、被試験対象物の超音波スキャンで取得したスキャン・データにアクセスする(602)。2Dスキャン画像を含む第1入力特徴マップがスキャン・データから生成され(604)、第1ディープ・ニューラル・ネットワークに入力されて(608)、第1出力特徴マップを生成する。欠陥のない対象物の画像を含む第2入力特徴マップが、第1ディープ・ニューラル・ネットワークと同じ構造及び重み値を有する第2ディープ・ニューラル・ネットワークに入力され(610)、第2出力特徴マップを生成する。被試験対象物は、第1及び第2出力特徴マップの間の距離が大きい場合に欠陥が含まれると判断される(614)。【選択図】図6
Description
本開示は、超音波非破壊検査(NDT)において利用される、スキャンされた超音波画像から欠陥を自動的に検出及び分類するメカニズムを提供するシステム及び方法に関する。
機械的位置決めシステムは、超音波トランシーバ・トランスデューサと、被試験デバイス(DUT)の反対側にあるレシーバ・トランスデューサとを同期してスキャンできる。非破壊検査(Non-Destructive Testing:NDT)は、例えば、複数のデバイスを有することがある半導体ウエハと、チップ・パッケージの試験に使用されることがある。DUTからトランシーバに戻る反射信号は、TDR(Time Domain Reflection:時間領域反射)波形であり、一方、第2のレシーバから収集される波形は、TDT(Time Domain Transmission:時間領域伝送)波形である。両方の波形の時間軸は、DUTを表す位置空間のZ軸に沿った距離に正比例する。これらトランスデューサは、DUTのX軸とY軸によって定義される位置空間に沿ってスキャンされる。スキャンされた波形は、アクイジション(データ取り込み)システムによってデジタル化され、画像生成ブロックは、TDT/TDRスキャン・データに基づいて、DUTの欠陥画像を作成する。
「ハイパースペクトルセンサー・イメージ分光カメラ」、株式会社アルゴ、[online]、[2023年3月25日検索]、インターネット<https://www.argocorp.com/cam/special/HeadWall/how_it_works.html>
「次元削減のためのシャム ネットワークの学習」、The MathWorks, Inc.、[online]、[2023年3月27日検索]、インターネット<https://jp.mathworks.com/help/deeplearning/ug/train-a-siamese-network-for-dimensionality-reduction.html>
「ResNet-18 畳み込みニューラル ネットワーク」、The MathWorks, Inc.、[online]、[2023年3月27日検索]、インターネット<https://jp.mathworks.com/help/deeplearning/ref/resnet18.html>
「現場ですぐ使える! Python プログラミング 逆引き大全400の極意」、特に、第678頁、Tips 353 「畳み込みニューラルネットワークとは」など、株式会社秀和システム、2021年1月20日第1版第1刷発行
従来、人間のオペレータが、画像を観察し、ウエハ(wafer)又はパッケージの欠陥を認識するようにトレーニングを受ける。このタスクを実行するには、多くの経験とトレーニングが必要である。現在、特定する必要がある欠陥の形式のいくつかを自動的に検出して分類できるアルゴリズムがある。しかし、これらのアルゴリズムでは、必要に応じて、欠陥を検出できない場合がある。
本開示技術の実施形態は、概して、欠陥を発見し、これらを分類する能力を改善するために、ディープ・ニューラル・ネットワークを利用する。ディープ・ニューラル・ネットワークは、ディープ・ラーニング・ニューラル・ネットワークとも呼ばれ、複数の処理層を含むネットワークである。これらの層は、中間特徴マップと比較的小さな重みのカーネルとの間の畳み込み演算又は相互相関処理を実行しても良い。対照的に、最終的な分類は、全結合されたネットワークの出力層によって実行されても良い。
本開示のいくつかの実施形態の一態様としては、ディープ・ニューラル・ネットワークの入力として使用する3次元(3D)画像テンソルを構築するための新規なアプローチを利用するものがある。3D画像テンソルは、デジタル・カラー画像で一般に使用されており、赤(R)、緑(G)、青(B)のスペクトル次元を有する。本願では、3DテンソルをRGB画像テンソルと呼ぶこともあるが、3つのコンポーネントに限定されず、任意の数のコンポーネントを使用できる。この新しいRGB画像の表現には、ディープ・ネットワークに追加のパラメータを入力して、分類を支援するためのオプションのグラフ画像エンコーディングもある。例えば、欠陥のない良好な基準画像を赤(R)チャンネルに配置し、被試験対象物のスキャン画像(欠陥を示す可能性がある)を緑(G)チャンネルに配置し、他のパラメータ・データを、パラメータ・データを表すグラフィック画像として青(B)チャンネルに配置しても良い。即ち、RGB画像テンソルの3つのRGBコンポーネントの構造を利用するものの、実際の色として、赤(R)、緑(G)、青(B)を利用しなくても良い。
本開示のいくつかの実施形態の別の新規な態様としては、シャム・ニューラル・ネットワーク(Siamese Neural Network:SNN)を利用して、基準画像をDUTスキャン画像と比較して合否(合格/不合格)分類を行うことがある。
添付の図面は、様々な代表的実施形態をよりわかりやすく説明するために利用される視覚的に表したもので、当業者であれば、開示される代表的実施形態及びそれらの固有の効果をよりよく理解できよう。これらの図面において、同様の参照符号は、対応又は類似する要素を特定している。
本開示技術は、多種多様な実施形態が可能であるところ、本願では、詳細で具体的な実施形態を図示し、説明するが、本願で図示し、説明する実施形態は、本開示技術の原理の例を提供すると考えるべきものであり、本開示で図示し、説明する特定の実施形態に限定することを意図するものではないことが理解できよう。なお、以下の説明では、同様の参照符号が、複数の図面において、同一、類似又は対応する部分を説明するために使用される。説明をシンプルで明確なものとするため、対応又は類似する要素を示すのに、参照符号を複数の図面で繰り返すことがある。
図1は、様々な代表的実施形態による超音波スキャナ100のブロック図である。超音波スキャナ100には、超音波トランシーバ(送受信部)102と、超音波レシーバ(受信部)104とがある。超音波トランシーバ102及び超音波レシーバ104の2つは、超音波トランスデューサとも呼ばれる。位置決めスキャナ106は、スキャンされる被試験対象物108(被試験デバイス(DUT)とも呼ぶ)に対するトランシーバ102及びレシーバ104の位置決めを行う。
コントローラ110は、システムをセットアップし、DUT108の領域全体について、超音波トランシーバ102と超音波レシーバ104の物理的スキャンを同期させる。スキャンは、対象物の表面に平行なXY平面で行われても良い。コントローラ110は、また、パルス生成部112及びデータ取得(アクイジション)システム114などのシステムの他の要素を同期させる。データ取得システム114は、スキャン・プロセス中に超音波トランスデューサ102及び104から受信した信号をデジタル数値に変換し、それらをメモリに記憶する。以下で説明するように、コントローラ110は、また、スキャン画像から導出されるスキャン画像よりも小さな複数のサブ画像によって、システムのループ処理を増加させても良い。加えて、コントローラ110は、各サブ画像に基づいて、複数の良好な基準画像のループ処理及び3Dテンソル画像の生成を制御しても良い。データ取得システム114は、デジタル・スキャン・データ116を出力し、コントローラ110は、スキャン位置データ118を出力する。スキャン・データ116は、スキャン画像及び基準画像の生成に使用される時間領域伝送(TDT)波形及び時間領域反射(TDR)波形を有していても良い。これら波形の伝搬時間は、XYZ波形位置データ空間におけるZ軸の距離に正比例する。
スキャン・データ116及びスキャン位置データ118は、データ・プロセッサ120に渡される。データ・プロセッサ120は、スキャン・データに基づいて被試験対象物中の欠陥を検出し、更に、オプションで欠陥を分類するように構成される。データ・プロセッサ120は、ストレージ(記憶部)122に記憶された、基準画像、DUT特性及びニューラル・ネットワークの重み値などの記憶されたデータを使用しても良い。ユーザ・インタフェース124は、画像を表示するのに加えて、ユーザがインタラクティブな操作を行うために使用できる。データ・プロセッサ120は、破線の矢印126によって示されるように、コントローラ110にフィードバックを提供しても良い。このように、データ・プロセッサ120は、コントローラ110、ストレージ122、ユーザ・インタフェース124に出力を提供できる。データ・プロセッサ120は、汎用のプログラマブル・コンピュータ・プロセッサ、専用プロセッサ又はこれらの組み合わせであっても良い。データ・プロセッサ120は、ニューラル・ネットワーク演算の効率的な処理を支援するアクセラレータ・ハードウェアを有していても良い。
図2は、様々な代表的実施形態による、超音波スキャナからのスキャン・データを処理するための装置200の機能ブロック図である。スキャン・データ処理装置200は、例えば、図1に示すような、データ・プロセッサ120及びストレージ122から構成されても良い。スキャン・データ処理装置200は、スキャナと一体化され、製造中のデバイスについて、その欠陥の自動検出やデバイスの分類に使用されても良い。この装置200は、1つ以上のデータ・プロセッサ及びストレージを用いて実装されても良い。
画像生成部202は、超音波スキャナからスキャン・データ116を受信し、これからDUTの画像を作成する。スキャン・データは、デジタル化されたTDR/TDT波形データから構成されていても良い。当業者には明らかなように、様々な方法が用いられ得る。例えば、TDR波形やTDT波形は、ハイパー・スペクトル・イメージング・フォーマット(非特許文献1参照)に直接マッピングすることができ、このとき、カラー平面の各カラー・チャンネルは、DUT位置空間のZ軸に沿った波形の1つのサンプルの位置を表すか、又は、Z軸に沿った波形の位置の範囲(レンジ)を表す。結果として得られる3D画像は、人間が見る通常の画像表示ではなく、DUTのベクトル空間の異なった表示である。この手法により、Z軸に沿った欠陥の表示をはるかに高い解像度で実現できる。ハイパー・スペクトル画像は、続いて、ディープ・ニューラル・ネットワークへの入力として使用されても良い。
サブ画像抽出ブロック204は、超音波スキャナ100のコントローラ110からスキャン位置データ118を受信する。これは、大きなスキャン画像のどの部分からサブ画像206を抽出するかを指定するインデックスの形式でコントローラから受けても良い。例えば、ある1つの回路の複製が多数あるウエハでは、サブ画像が、1つの回路だけを有していても良い。しかしながら、一般には、サブ画像が、スキャン画像の全部又は一部であっても良い。ある実施形態では、サブ画像の選択が、トレーニングのためにシステムをセットアップするときに、ユーザ・インタフェースを介して、ユーザによるインタラクティブな操作によって行われても良い。
基準画像配列ブロック208は、サブ画像の位置毎に良好な基準画像210を保持(記憶)していてもよい。ここで、良好な基準画像とは、良好な(欠陥がない)ことが既知のデバイスの画像である。更に、各サブ画像について、良好な基準画像の例を追加して保持しても良い。以下では、サブ画像夫々に対応する基準画像について、サブ基準画像と呼ぶこともある。これら良好な基準画像は、システムをトレーニング又は実行する前に、最初のステップの1つとして、取得され、保存されても良い。複数の基準画像を各サブ画像と共に使用することで、各サブ画像に関して複数の入力情報を追加で作成することができ、これにより、より多くのトレーニング・データを生成できる。
グラフ画像生成ブロック212は、ディープ・ニューラル・ネットワークへの入力として、その他のデータを提供するような状況において使用しても良いオプションのブロックである。グラフ画像生成ブロック212は、例えば、部品の温度若しくはバージョン番号などのパラメータ又は必要に応じて分類を支援するために使用されても良い任意の他のパラメータを受信しても良い。入力されたパラメータは、グラフに変換され、画像に組み込まれる。複数のパラメータのグラフ214が、1つの画像の中に配置されても良い。サブ画像206、基準画像210及びパラメータ・グラフ214は、入力マップ生成部216において組み合わされて、ディープ・ニューラル・ネットワーク220に入力される入力特徴マップ218を生成する。ディープ・ニューラル・ネットワーク220は、例えば、コンピュータで実装されるニューラル・ネットワークであってもよく、汎用プロセッサ若しくは専用プロセッサ又はこれらの組み合わせから構成されても良い。
ある実施形態では、入力特徴マップは、赤(R)、緑(G)及び青(B)チャンネルを有するRGB画像テンソルである。RGB画像テンソルは、一般的には、カラー画像を格納するために使用されているが、このアプリケーションでは、チャンネルは可視色に対応していない。パラメータ・グラフ(パラメータのグラフ等の図表)214を画像テンソルのRGBチャンネルに組み込むことができる多くの方法がある。1つの手法は、特定の1つのカラー・チャンネル、例えば、青(B)チャンネルを、グラフ画像だけに使用することである。しかし、3D相互相関フィルタを使用した場合では、基準画像と欠陥画像が学習プロセスにおいて相関する。これにより、青チャンネルのグラフ・データと、他の2つのチャンネルの間に干渉が発生する。別の手法では、基準画像及び欠陥画像と同じ画像にパラメータ・グラフを組み込む。このとき、グラフは、スキャン画像の領域の外側に配置しても良く、これにより、層間の相互相関フィルタは、グラフ・データと画像データとを結合しないようになる。
入力マップ生成部216は、未加工の(raw:生の)DUTのサブ画像を1つのチャンネルに配置し、このサブ画像に関する良好な基準画像の1つを第2チャンネルに配置する。オプションで、第2の良好な画像やパラメータ・グラフ画像を第3チャンネルに配置する。DUTサブ画像と良好な画像と間の差分の計算は必要ない。なお、サブ画像の位置の夫々に、複数の良好な基準画像が存在しても良い。従って、各サブ画像には、ネットワークをトレーニングするための追加の入力例として使用するために作成された複数のRGBテンソル画像が含まれても良い。パラメータのグラフの画像は、画像全体内のDUT画像及び基準画像の境界の外側に組み込まれても良く、これにより、画像データに対して、グラフ・データが重ならないようにして、相関フィルタを適用できる。
オプションで、入力特徴マップ218をストレージ122に記憶して、後の分析のために又はディープ・ニューラル・ネットワークをトレーニングするときの入力として使用しても良い。
RGB画像テンソルのような入力特徴マップ218は、ディープ・ニューラル・ネットワーク220に入力され、DUT108に欠陥があるか否か、もしあるなら欠陥のクラス(class:種別)を示す出力222を生成する。ディープ・ニューラル・ネットワーク220は、重み値224のセットを用いて入力特徴マップを処理する。これらの重み値の一部は、以下で説明するように、別のアプリケーションからコピーされても良い。これに代えて、重み値は、トレーニング・プロセスによって選択されても良い。ディープ・ニューラル・ネットワーク220は、計算論理回路を使用してシリアル形式で実装されても良く、このとき、入力特徴マップは、コンピュータで読み出し可能なストレージから読み出された重み値と組み合わされる。これに代えて、重み値224は、例えば電気回路における抵抗素子のコンダクタンス値などのネットワーク自体の特性として実現されても良い。
図3は、様々な代表的実施形態による、超音波スキャナからのスキャン・データを処理するニューラル・ネットワークをトレーニングするための装置300の機能ブロック図である。図2を参照して上述したように、入力特徴マップ218は、基準画像210、サブ画像206及びオプションのパラメータ・グラフ画像214に基づいて、入力マップ生成部216によって生成される。これらの画像は、スキャン・プロセス中に生成されたり、保存されたトレーニング・データから読み込まれても良い。記憶されたトレーニング・データは、スキャン画像又は合成画像であっても良い。
自動分類部302は、サブ画像206中の任意の欠陥にラベル付けるために使用されても良い。これに代えて又はこれに加えて、マニュアル(手作業)による分類を利用してもよく、このとき、ユーザがトレーニングに使用する画像の分類を行う。しかし、自動分類を利用すると、トレーニング・プロセスを更に自動化でき、ユーザがトレーニング・データを得るために必要となる手作業でのラベル付けの作業量を減らすことができる。既存の自動化ツールとその基本的な処理ブロックを利用しても良く、これにより、ユーザは、観察する必要があるユーザのカスタムなウエハとパッケージの領域を定めることができる。このラベルは、スキャンされた対象物又は欠陥に関する任意の追加情報(欠陥の位置又は範囲など)と共に、メタデータ304を形成する。
分類部302への入力には、DUTサブ画像206及び基準サブ画像210がある。分類部302からの出力は、メタデータ304のセットであり、これは、合否(合格又は不合格)を示すと共に、不合格の場合、欠陥又は欠陥の種別を提供する。分類部は、通常、ニューラル・ネットワーク220のトレーニング中にのみ分類処理を実行する。しかし、ユーザが、不合格の部品を再度検査したり、ネットワークのトレーニングを定期的にアップデートするために追加のデータを収集する必要がある場合にも、分類部が分類処理を実行しても良い。
分類アルゴリズムに基づく出力を格納するメタデータ304は、配列の形式で格納されても良い。このメタデータの配列の構造に対する各インデックスは、テンソル配列内の対応するRGB画像テンソルに対応するインデックスに関連付けられる。このため、各RGB画像テンソルは、各RGB画像テンソルが含むDUTサブ画像に対応する。RGB画像テンソルと関連するメタデータは、ニューラル・ネットワークをトレーニングする時に、ディープ・ニューラル・ネットワークへの入力として提供される。トレーニング後、ネットワークが、実行(ランタイム)時に、欠陥を分類するために使用されると、対応するメタデータがニューラル・ネットワークから出力されても良い。
ニューラル・ネットワーク220は、入力の特徴を抽出するための多くの層を有していても良く、その後に分類のための全結合された分類層が続く。一実施形態では、ネットワーク層が無関係な画像を用いて事前トレーニングされる「転移学習(transfer learning)」アプローチが使用される。ディープ・ネットワーク220の層は、チャンネル間(例えば、3つのRGBチャンネル)及び各チャンネル平面内で、3D相互相関フィルタを使用しても良い。転移学習を使用する場合、全結合された分類層は、このアプリケーションに関する正しい個数の分類出力を有する新しいトレーニングされていない全結合層に置き換えられる。次に、テンソル画像配列とメタデータ配列を入力として受けることで、ネットワークがトレーニングされる。トレーニング・プロセスの間、出力222の要素は、エラー・ブロック306において、メタデータ304内の対応する要素と比較される。結果として生じるエラー308は、ネットワークによって使用される重み値224をアップデートするためにトレーニング・ブロック310において使用される。トレーニング・アルゴリズムの多くは、当業者には公知である。一実施形態では、全ての重み値がアップデートされる。
別の実施形態では、以前にトレーニングされたネットワークの特徴抽出層(重み値224Aを有する)が、新しいアプリケーションのための所望の分類を行うように構造化された出力層(重み値224Bを有する)と組み合わされる。例えば、ネットワークには、事前トレーニング済みの特徴抽出層と、それに続く全結合層、ソフトマックス(SoftMax)層及び分類層があっても良い。トレーニング・ブロック310は、出力層についての重み値224Bをアップデートし、一方、転移学習は、特徴抽出層における重み値224Aに対して使用される。例えば、ソフトマックス層の正規化係数は、ネットワーク出力を0と1の間に保つようにトレーニングされ、分類層は、分類に使用されるエントロピー関数を計算するようにトレーニングされる。事前トレーニングされた特徴抽出層の数は、トレーニングされる層の数をはるかに超えても良い。このため、転移学習によれば、必要なトレーニング時間とデータの量を大幅に削減できる。
ネットワークがトレーニングされても、将来、より多くのデータ配列が収集されたら、定期的にトレーニングを再度行っても良い。十分な量の追加データの準備ができたら、ネットワークは、ランタイムを一時停止して、新しいデータでトレーニングをアップデートしても良い。トレーニング済みネットワークがランタイム中は、メタデータ配列は入力されなくなり、テンソル画像配列のみが入力される。次に、ネットワークは、所与の通常と異なるRGBテンソル入力画像に関連付けられているメタデータのセットを出力する。
ランタイム時には、ディープ・ネットワークへのメタデータ入力がないため、既存の分類アルゴリズム・ブロックは使用されない。しかし、DUTなどの部品が欠陥スキャンで不合格の場合、この分類部302を使用して、不合格の部品を更に検査し、既存の方法を使用して分類することができる。
ランタイム時に、ユーザが定期的にシステムを停止し、分類アルゴリズムを使用して部品を更に検査すると、より多くのトレーニング・データを作成できる。ある時点で、新しいデータを充分に用意できたら、ネットワークの拡張トレーニングを行って、これら新しいデータを、ネットワークの学習に組み込むようにしても良い。
図3のブロック図には示していないが、一実施形態では、システムが、ランタイム時に複数のメタデータ・セットを作成するようにプログラムされ、複数の基準画像夫々のメタデータは、各サブ画像に関連付けられる。メタデータ・セットの最終的な種別は、メタデータ値のヒストグラムに従って、正しい可能性が高いセットに基づいて、複数のセットから選択できる。
上記のシステムは、相互相関層を使用する単一のディープ・ニューラル・ネットワークへの入力として、RGB画像構造を利用する。このネットワークは、畳み込み層ではなく、相互相関層を利用する。相互相関層と畳み込み層は、特定の対称性を持つ一部のカーネルの場合では、等価であるが、通常、相互相関層は、畳み込み層と等価ではない。ニューラル・ネットワークは、欠陥が検出され、分類された既存のデータを使用してトレーニングされても良い。これに代えて又はこれに加えて、ニューラル・ネットワークは、その実際の現場でトレーニングされても良い。ニューラル・ネットワークの実際の現場でのトレーニング中、システムは、多くのDUTをスキャンし、既存の自動検出及び分類アルゴリズムによってDUTを調べ、これにより、所与の画像を合格又は不合格としてラベル付けし、欠陥にラベルを付ける。サイズ、位置、タイプなどの欠陥のプロパティを含むメタデータを生成しても良い。トレーニングに使用するために、自動での種別に加えて、手作業による(マニュアル)種別データの例をメタデータに組み込んでも良い。ウエハ又はパッケージの場合、最初の高解像度画像は、ウエハのサブ回路を観察するのに適し、かつ、ディープ・ネットワークへの入力として使用するのに許容可能な適切なサイズの小さな画像(サブ画像)に細分化される。
トレーニング中、ネットワークは、入力として、RGBテンソル画像の配列を、各画像に関連付けられたクラス(種別)ラベルを含むメタデータ構造の配列と共に受ける。
トレーニング後、システムのランタイムは、DUTをスキャンし、画像とサブ画像のRGBテンソルを作成し、それをディープ・ネットワークへの入力として適用することから構成される。ネットワークの出力は、欠陥クラス・ラベルと、オプションで、サイズや位置など、欠陥の他の特定された属性(プロパティ)である。
上述したブロックの多くは、以下に説明する様々な実施形態と共通である。
図4は、本開示の他の実施形態による超音波欠陥検出及び分類システム400のブロック図である。このシステムは、ニューラル・ネットワークがシャム・ニューラル・ネットワーク(Siamese Neural Network:SNN)を含む点を除いて、上述のシステムと類似している。シャム・ニューラル・ネットワークは、比較的少ないデータ数でも、2つの画像が類似する否かを判断するのに適することが知られている。シャム・ニューラル・ネットワークには、トレーニング後に同じ重み値又は係数を使用する2つの同一のディープ・ニューラル・ネットワークが含まれている。図4を参照すると、第1入力マップ生成部402は、第1ディープ・ニューラル・ネットワーク404に入力する画像データを用意する。第1ディープ・ニューラル・ネットワーク404は、例えば、転移学習を用いて予めトレーニングされても良い。入力特徴マップは、例えば、RGB画像テンソル生成部から出力されても良く、このとき、スキャンされたDUTサブ画像が、入力特徴マップのRGBの3つのチャンネル全てに配置される。第2入力特徴マップ生成部406は、第2ディープ・ニューラル・ネットワーク408へ入力する画像データを用意する。第2入力特徴マップ生成部406は、1つ以上のサブ基準画像を3つのRGBチャンネルに配置することによってRGB画像テンソルを生成しても良い。
ディープ・ニューラル・ネットワーク404及び408は、例えば、コンピュータで実装されるニューラル・ネットワークであっても良く、また、汎用プロセッサ若しくは専用プロセッサ又はこれらの組み合わせで構成されても良い。
一実施形態では、DUT入力側のRGB画像は、3つのチャンネル全てにおいて同じDUT画像を含んでもよい。しかし、グラフ・パラメータ画像生成部410から生成される画像は、これらチャンネルのうちの1つに又は画像チャンネル内に独立して組み込まれても良い。別の実施形態では、各チャンネルが、基準画像を異なる形で取り込んでも良い。
図4のシステムの重要な特徴は、同じ重み値412が第1及び第2ディープ・ニューラル・ネットワークの両方によって使用されることである。これにより、同じ入力特徴マップがネットワークの両側に適用されたときに、ネットワークからの出力が同じになる。
動作中、第1ディープ・ニューラル・ネットワーク404からの出力414と、第2ディープ・ニューラル・ネットワーク408からの出力416とが比較ブロック418において比較され、合否(合格/不合格)信号420を生成する。これら出力414及び416が、類似している場合、スキャンされた対象物に欠陥がない(つまり、検査に合格)とされることが予想される。これら出力414及び416が異なる場合、スキャンされた対象物に欠陥が含まれている(つまり、検査に不合格)とされることが予想される。
オプションで、合否信号420を使用して自動欠陥分類部422の動作を制御しても良く、このとき、自動欠陥分類部422は、スキャンされたサブ画像206と1つ以上の基準画像210との比較に基づいて、欠陥分類情報424を生成する
このように、第1ディープ・ニューラル・ネットワーク404、第2ディープ・ニューラル・ネットワーク408及び比較ブロック418を含むシャム・ニューラル・ネットワークは、合格/不合格(合否)の分類を行う。このタスクは、2つの画像間の類似性の程度を調べることに特化して構成されているため、標準的なネットワークよりも巧みに行われる。もしDUTが不合格の場合、標準的なネットワークを使用して欠陥を更に分類する必要がある。標準的なネットワークを使用すると、オプションで、欠陥の分類に役立つ追加のパラメータのグラフを入力できる。
図5は、様々な代表的実施形態に従って、超音波スキャナでスキャンされた対象物中の欠陥を検出するためにシャム・ニューラル・ネットワークをトレーニングするための装置500の簡略化されたブロック図である。図5に示す実施形態では、分類部502は、基準画像210及びサブ画像206を受けて、合否信号504によって示されるように、スキャン画像から抽出されたサブ画像に欠陥があるか否かを判断する。別の実施形態では、スキャン画像から抽出されたサブ画像は、例えば、手動作業(マニュアル)でのラベル付けなどの他の手段によって、欠陥があるか否かのラベル付けをしても良い。更に別の実施形態では、スキャン画像に基づくサブ画像は、欠陥を示すために作成された合成画像であっても良い。合否信号504は、対照損失(contrastive loss)生成部506に渡される。一実施形態では、対照損失Lは、次のように計算される。
[数1]
L=Y×D+(1-Y) × max(margin-D,0)
ここで、Dは、第1及び第2ニューラル・ネットワーク夫々の出力414と416との間のユークリッド距離であり、Yは、サブ画像206に欠陥がない場合には値0をとり、欠陥を示すときは値1をとる。
[数1]
L=Y×D+(1-Y) × max(margin-D,0)
ここで、Dは、第1及び第2ニューラル・ネットワーク夫々の出力414と416との間のユークリッド距離であり、Yは、サブ画像206に欠陥がない場合には値0をとり、欠陥を示すときは値1をとる。
トレーニング・ブロック510は、対照損失508を利用して、対照損失が減少するように重み値412をアップデートする。一実施形態では、初期重み値は、転移学習を用いて得られる。
図6は、様々な代表的実施形態によるコンピュータで実装される欠陥検出及び分類方法600のフローチャートである。図6を参照すると、工程602では、1つ以上のコンピューティング・デバイスが、対象物の超音波スキャンで取得されたスキャン・データにアクセスする。工程604では、2次元(2D)スキャン画像がスキャン・データから生成される。オプションで、工程606において、第1入力特徴マップが、2Dスキャン画像から生成される。第1入力特徴マップは、上述したように、例えば、パラメータ・グラフ又は3D画像テンソルなどの追加データを有していても良い。第1入力特徴マップは、工程608において、第1ディープ・ニューラル・ネットワークに入力され、第1出力特徴マップが生成される。欠陥のない対象物の1つ以上の画像を含む第2入力特徴マップが、工程610において第2ディープ・ニューラル・ネットワークに入力され、第2出力特徴マップが生成される。第2ディープ・ニューラル・ネットワークは、第1ディープ・ニューラル・ネットワークと同じ構造及び重み値を有する。
第1及び第2出力特徴マップは、工程612において比較される。判断工程614からの否定的な(「いいえ」の)分岐によって図示されるように、第1及び第2出力特徴マップの間の距離が(ある閾値と比較して)大きくない場合、フローは、工程616へと続き、欠陥は検出されない、とされる。よって、スキャンされた対象物には、欠陥がないと判断される。判断工程614からの肯定的な(「はい」の)分岐によって図示されるように、第1及び第2出力特徴マップ間の距離が大きい場合、工程618に示されるように、欠陥が検出された、と判断される。オプションで、工程620において、欠陥が、自動欠陥分類部を利用するか又はユーザによる手作業での分類を利用するかのいずれかで、分類されても良い。
一実施形態では、第1入力特徴マップは、3次元(3D)画像テンソルであり、この第1の3D画像テンソルの3つのチャンネル全てに2Dスキャン画像を有している。また、第2入力特徴マップは、3次元(3D)画像テンソルであり、3つのチャンネルの夫々に欠陥のない対象物の2Dスキャン画像を有する。各チャンネルは、異なる画像を含むことができる。
上述したように、第1及び第2ディープ・ニューラル・ネットワークの重み値は、カラー画像を用いてトレーニングされたディープ・ニューラル・ネットワークからコピーされても良い。第1及び第2ディープ・ニューラル・ネットワークの重み値は、第1ディープ・ニューラル・ネットワークの出力特徴マップと第2ディープ・ニューラル・ネットワークの出力特徴マップとの間の距離の対照損失に基づいて調整されても良い。
図7Aは、様々な代表的実施形態による第1入力特徴マップ700の概略図である。第1入力特徴マップは、「R」、「G」及び「B」チャンネルを持つ3D画像テンソルである。この形式は、一般的には、カラー画像の赤(R)、緑(G)、青(B)のチャンネルを保存するために使用される。しかし、図7Aでは、各チャンネルは、スキャンされた対象物の2D画像を格納するために使用される。従って、画像702は、3つのチャンネル全てに配置される。図示の例では、画像の領域704が欠陥を示している。
図7Bは、様々な代表的実施形態による第2入力特徴マップ710の概略図である。この場合も、第2入力特徴マップは、「R」、「G」及び「B」チャンネルを有する3D画像テンソルである。図7Bにおいて、各チャンネルは、欠陥のない対象物の2D画像を格納するために使用される。このため、欠陥のない対象物の2D画像712が「R」チャンネルに配置され、欠陥のない対象物の2D画像714が「G」チャンネルに配置され、欠陥のない対象物の2D画像716が「B」チャンネルに配置される。
図7Cは、様々な代表的実施形態による別の入力特徴マップ720の概略図である。ここでも、入力特徴マップは「R」、「G」及び「B」チャンネルを有する3D画像テンソルである。図7Cにおいて、スキャン画像722は「R」チャンネルに配置され、欠陥のない画像724は「G」チャンネルに配置され、パラメータの図表(グラフ)画像726は「B」チャンネルに配置される。図示の例では、画像722の領域728が欠陥を示している。別の実施形態では、パラメータ・データの図表は、画像によって占められる領域の外側のチャンネルの周辺に配置されても良い。
3チャンネルを有する3D画像テンソルを使用する利点は、RGBカラー画像入力を使用して事前にトレーニングされた高性能ニューラル・ネットワークに、3D画像テンソルを入力できることである。このような事前トレーニング済みネットワークの一例としては、ResNet-18(非特許文献3参照)があるが、本開示技術の実施形態は、いかなる特定の事前トレーニング済みネットワークにも限定されるものではない。これらの事前トレーニング済みネットワークの出力層は、欠陥の検出と分類を自動化するために置き換えられ、再トレーニングされる。ネットワークを、全くのゼロからトレーニングするには、はるかに多くの入力画像が必要になるため、これは大きな利点である。下位層に事前トレーニング済みの特徴抽出層を使用し、置き換えられた出力層のみをトレーニングすることで、より少ないデータと労力でネットワークをトレーニングし、高性能ネットワークを提供できる。
上述したように、本願の実施形態による3D画像テンソルの3つの入力チャンネルには、赤色、緑色、青色のコンポーネントは含まれていない。その代わりに、欠陥のない画像が、第1カラー・チャンネルに配置され、スキャンされた画像(欠陥がある可能性がある)が、別の第2カラー・チャンネルに配置され、パラメータの棒グラフ等の図表が、更に別の第3カラー・チャンネルに配置される。
このアプローチの更なる利点は、このように構築された3D画像テンソルを、依然としてカラー画像として見ることができることである。例えば、欠陥のない画像を赤チャンネルに配置し、欠陥のある画像を緑チャンネルに配置すると、生じる色は、画像間の差異に応じて変化する。即ち、2つの画像が同じ領域では、生じる画像には、赤と緑が同量(ただし、場所により輝度は異なる)が含まれるが、2つの画像が異なる領域では、赤又は緑のどちらかが支配的になる。ニューラル・ネットワークには、欠陥が生じている領域に現れる色の違いに敏感であることが期待される。このアプローチは、シャム・ニューラル・ネットワークと共に使用することで、合否(合格/不合格)の出力を生成でき、また、多層残差ネットワーク(residual network:ResNet)などの他のニューラル・ネットワークと共に使用して、自動分類を提供できる。
本開示技術の実施形態は、機械学習を使用して、ウエハや半導体パッケージなどの被試験デバイス(DUT)について得られた超音波スキャン画像の分類を支援する。実施形態は、相互相関層を含むディープ・ネットワークを使用しても良い。実施形態は、また、既知の良好な基準画像を、欠陥がある可能性のあるDUTの画像と比較し、次いで、DUTの画像を合格又は不合格として分類する目的で、シャム・ニューラル・ネットワークを使用しても良い。ネットワークのトレーニングは、既存の分類アルゴリズムを使用して実行され、ユーザによる手作業(マニュアル)のラベル付けの作業量を最小限に抑えられる。必要に応じて、手作業のラベル付けを使用することもできる。
本開示技術の態様は、特別に作成されたハードウェア、ファームウェア、デジタル・シグナル・プロセッサ又はプログラムされた命令に従って動作するプロセッサを含む特別にプログラムされた汎用コンピュータ上で動作できる。本願における「コントローラ」又は「プロセッサ」という用語は、マイクロプロセッサ、マイクロコンピュータ、ASIC及び専用ハードウェア・コントローラ等を意図する。本開示技術の態様は、1つ又は複数のコンピュータ(モニタリング・モジュールを含む)その他のデバイスによって実行される、1つ又は複数のプログラム・モジュールなどのコンピュータ利用可能なデータ及びコンピュータ実行可能な命令で実現できる。概して、プログラム・モジュールとしては、ルーチン、プログラム、オブジェクト、コンポーネント、データ構造などを含み、これらは、コンピュータその他のデバイス内のプロセッサによって実行されると、特定のタスクを実行するか、又は、特定の抽象データ形式を実現する。コンピュータ実行可能命令は、ハードディスク、光ディスク、リムーバブル記憶媒体、ソリッド・ステート・メモリ、RAMなどのコンピュータ可読記憶媒体に記憶しても良い。当業者には理解されるように、プログラム・モジュールの機能は、様々な実施例において必要に応じて組み合わせられるか又は分散されても良い。更に、こうした機能は、集積回路、フィールド・プログラマブル・ゲート・アレイ(FPGA)などのようなファームウェア又はハードウェア同等物において全体又は一部を具体化できる。特定のデータ構造を使用して、本開示技術の1つ以上の態様をより効果的に実施することができ、そのようなデータ構造は、本願に記載されたコンピュータ実行可能命令及びコンピュータ使用可能データの範囲内と考えられる。
開示された態様は、場合によっては、ハードウェア、ファームウェア、ソフトウェア又はこれらの任意の組み合わせで実現されても良い。開示された態様は、1つ以上のプロセッサによって読み取られ、実行され得る1つ又は複数のコンピュータ可読媒体によって運搬されるか又は記憶される命令として実現されても良い。そのような命令は、コンピュータ・プログラム・プロダクトと呼ぶことができる。本願で説明するコンピュータ可読媒体は、コンピューティング装置によってアクセス可能な任意の媒体を意味する。限定するものではないが、一例としては、コンピュータ可読媒体は、コンピュータ記憶媒体及び通信媒体を含んでいても良い。
コンピュータ記憶媒体とは、コンピュータ読み取り可能な情報を記憶するために使用することができる任意の媒体を意味する。限定するものではないが、例としては、コンピュータ記憶媒体としては、ランダム・アクセス・メモリ(RAM)、読み出し専用メモリ(ROM)、電気消去可能プログラマブル読み出し専用メモリ(EEPROM)、フラッシュメモリやその他のメモリ技術、コンパクト・ディスク読み出し専用メモリ(CD-ROM)、DVD(Digital Video Disc)やその他の光ディスク記憶装置、磁気カセット、磁気テープ、磁気ディスク記憶装置やその他の磁気記憶装置、及び任意の技術で実装された任意の他の揮発性又は不揮発性の取り外し可能又は取り外し不能の媒体を含んでいても良い。コンピュータ記憶媒体としては、信号そのもの及び信号伝送の一時的な形態は除外される。
通信媒体とは、コンピュータ可読情報の通信に利用できる任意の媒体を意味する。限定するものではないが、例としては、通信媒体には、電気、光、無線周波数(RF)、赤外線、音又はその他の形式の信号の通信に適した同軸ケーブル、光ファイバ・ケーブル、空気又は任意の他の媒体を含んでも良い。
実施例
実施例
以下では、本願で開示される技術の理解に有益な実施例が提示される。この技術の実施形態は、以下で記述する実施例の1つ以上及び任意の組み合わせを含んでいても良い。
実施例1は、コンピュータで実装される欠陥検出方法であって、
1つ以上のコンピューティング・デバイスにおいて、被試験対象物の超音波スキャンで取得されたスキャン・データにアクセスするステップと、
上記スキャン・データから、2次元(2D)スキャン画像を含む第1入力特徴マップを生成するステップと、
上記第1入力特徴マップを第1ディープ・ニューラル・ネットワークに入力して、第1出力特徴マップを生成するステップと、
欠陥のない対象物のスキャン画像を含む第2入力特徴マップを、上記第1ディープ・ニューラル・ネットワークと同じ構造及び重み値を有する第2ディープ・ニューラル・ネットワークに入力して、第2出力特徴マップを生成するステップと、
上記第1及び第2出力特徴マップ間の距離が大きい場合に、スキャンされた上記被試験対象物が欠陥を含むと判断するステップと
を具える。
1つ以上のコンピューティング・デバイスにおいて、被試験対象物の超音波スキャンで取得されたスキャン・データにアクセスするステップと、
上記スキャン・データから、2次元(2D)スキャン画像を含む第1入力特徴マップを生成するステップと、
上記第1入力特徴マップを第1ディープ・ニューラル・ネットワークに入力して、第1出力特徴マップを生成するステップと、
欠陥のない対象物のスキャン画像を含む第2入力特徴マップを、上記第1ディープ・ニューラル・ネットワークと同じ構造及び重み値を有する第2ディープ・ニューラル・ネットワークに入力して、第2出力特徴マップを生成するステップと、
上記第1及び第2出力特徴マップ間の距離が大きい場合に、スキャンされた上記被試験対象物が欠陥を含むと判断するステップと
を具える。
実施例2は、実施例1のコンピュータで実装される欠陥検出方法であって、
上記第1入力特徴マップを生成するステップが、3つのチャンネルの全てに2Dスキャン画像を有する第1の3次元(3D)画像テンソルを生成構築するステップを有し、
上記第2入力特徴マップを生成するステップが、第2の3次元(3D)画像テンソルを生成するステップとを有し、上記第2の3D画像テンソルが、
上記第2の3D画像テンソルの第1チャンネルに欠陥のない対象物の第1の2Dスキャン画像と、
上記第2の3D画像テンソルの第2チャンネルに欠陥のない対象物の第2の2Dスキャン画像と、
上記第2の3D画像テンソルの第3チャンネルに欠陥のない対象物の第3の2Dスキャン画像と
を有する。
上記第1入力特徴マップを生成するステップが、3つのチャンネルの全てに2Dスキャン画像を有する第1の3次元(3D)画像テンソルを生成構築するステップを有し、
上記第2入力特徴マップを生成するステップが、第2の3次元(3D)画像テンソルを生成するステップとを有し、上記第2の3D画像テンソルが、
上記第2の3D画像テンソルの第1チャンネルに欠陥のない対象物の第1の2Dスキャン画像と、
上記第2の3D画像テンソルの第2チャンネルに欠陥のない対象物の第2の2Dスキャン画像と、
上記第2の3D画像テンソルの第3チャンネルに欠陥のない対象物の第3の2Dスキャン画像と
を有する。
実施例3は、実施例1のコンピュータで実装される欠陥検出方法であって、カラー画像を使用してトレーニングされたディープ・ニューラル・ネットワークから、上記第1及び第2ディープ・ニューラル・ネットワークの重み値をコピーする。
実施例4は、実施例1のコンピュータで実装される欠陥検出方法であって、上記第1ディープ・ニューラル・ネットワークの出力と上記第2ディープ・ニューラル・ネットワークの出力との間の距離の対照損失に基づいて、上記第1及び第2ディープ・ニューラル・ネットワークの重み値を調整するステップを更に具える。
実施例5は、実施例1のコンピュータで実装される欠陥検出方法であって、スキャンされた上記被試験対象物が欠陥を含むと判断されたときに、上記被試験対象物の上記2Dスキャン画像を自動欠陥分類部に渡すステップを更に具える。
実施例6は、コンピュータで実装される欠陥検出方法であって、
1つ以上のコンピューティング・デバイスにおいて、被試験対象物の超音波スキャンで取得されたスキャン・データにアクセスするステップと、
上記スキャン・データから、2次元(2D)スキャン画像を生成するステップと、
上記2Dスキャン画像に関連する情報の2Dグラフィック表示画像を生成するステップと、
被試験対象物の欠陥分類メタデータを生成するステップと、
第1チャンネルに上記2Dスキャン画像を有し、第2チャンネルに欠陥のない対象物の2D画像を有し、第3チャンネルに上記2Dグラフィック表示画像を有する3次元(3D)画像テンソルを生成するステップと、
上記3D画像テンソルをディープ・ニューラル・ネットワークに入力するステップと、
上記ディープ・ニューラル・ネットワークの出力を上記欠陥分類メタデータと比較するステップと、
上記ディープ・ニューラル・ネットワークの出力と上記欠陥分類メタデータとの間の整合性を改善するように上記ディープ・ニューラル・ネットワークの出力層の重み値を調整するステップと、
調整された上記重み値を保存するステップと
を具える。
1つ以上のコンピューティング・デバイスにおいて、被試験対象物の超音波スキャンで取得されたスキャン・データにアクセスするステップと、
上記スキャン・データから、2次元(2D)スキャン画像を生成するステップと、
上記2Dスキャン画像に関連する情報の2Dグラフィック表示画像を生成するステップと、
被試験対象物の欠陥分類メタデータを生成するステップと、
第1チャンネルに上記2Dスキャン画像を有し、第2チャンネルに欠陥のない対象物の2D画像を有し、第3チャンネルに上記2Dグラフィック表示画像を有する3次元(3D)画像テンソルを生成するステップと、
上記3D画像テンソルをディープ・ニューラル・ネットワークに入力するステップと、
上記ディープ・ニューラル・ネットワークの出力を上記欠陥分類メタデータと比較するステップと、
上記ディープ・ニューラル・ネットワークの出力と上記欠陥分類メタデータとの間の整合性を改善するように上記ディープ・ニューラル・ネットワークの出力層の重み値を調整するステップと、
調整された上記重み値を保存するステップと
を具える。
実施例7は、実施例6のコンピュータで実装される欠陥検出方法であって、カラー画像を用いてトレーニングされたディープ・ニューラル・ネットワークから上記ディープ・ニューラル・ネットワークの特徴マッピング層の重み値をコピーするステップを更に具える。
実施例8は、実施例6のコンピュータで実装される欠陥検出方法であって、
上記被試験対象物の欠陥分類メタデータをトレーニング・データ・セットに格納するステップと、
上記3次元(3D)画像テンソルを上記トレーニング・データ・セットに格納するステップと
を有する上記トレーニング・データ・セットを記憶するステップを更に具える。
上記被試験対象物の欠陥分類メタデータをトレーニング・データ・セットに格納するステップと、
上記3次元(3D)画像テンソルを上記トレーニング・データ・セットに格納するステップと
を有する上記トレーニング・データ・セットを記憶するステップを更に具える。
実施例9は、欠陥検出システムであって、
第1入力特徴マップに第1重み値セットを適用することによって第1出力特徴マップを生成するように構成されたコンピュータで実装される第1ニューラル・ネットワークと、
被試験対象物の超音波スキャンで取得されたデータに、上記第1ニューラル・ネットワークの上記第1入力特徴マップをマッピングするように構成された入力プリ・プロセッサと、
1つ以上の基準超音波スキャン・データからマッピングされる第2入力特徴マップに上記第1重み値セットを適用することによって第2出力特徴マップを生成するように構成されたコンピュータで実装される第2ニューラル・ネットワークと、
上記第1出力特徴マップと上記第2出力特徴マップとの間の差に基づいて類似度を生成するように構成された比較部と、
上記類似度に基づいて、スキャンされた上記被試験対象物に欠陥が含まれるか否かを判断するように構成された判断ロジックと
を具える。
第1入力特徴マップに第1重み値セットを適用することによって第1出力特徴マップを生成するように構成されたコンピュータで実装される第1ニューラル・ネットワークと、
被試験対象物の超音波スキャンで取得されたデータに、上記第1ニューラル・ネットワークの上記第1入力特徴マップをマッピングするように構成された入力プリ・プロセッサと、
1つ以上の基準超音波スキャン・データからマッピングされる第2入力特徴マップに上記第1重み値セットを適用することによって第2出力特徴マップを生成するように構成されたコンピュータで実装される第2ニューラル・ネットワークと、
上記第1出力特徴マップと上記第2出力特徴マップとの間の差に基づいて類似度を生成するように構成された比較部と、
上記類似度に基づいて、スキャンされた上記被試験対象物に欠陥が含まれるか否かを判断するように構成された判断ロジックと
を具える。
実施例10は、実施例9の欠陥検出システムであって、上記基準超音波スキャン・データを記憶するメモリを更に具え、上記基準超音波スキャン・データが、欠陥のない対象物のスキャン・データである。
実施例11は、実施例9の欠陥検出システムであって、上記入力プリ・プロセッサが、
上記被試験対象物の超音波スキャンで取得したスキャン・データから2次元(2D)スキャン画像を生成する処理と、
上記第1入力特徴マップとして、3つのチャンネルの全てに上記2Dスキャン画像を有する第1の3次元(3D)画像テンソルを生成する処理と
を行うよう構成される。
上記被試験対象物の超音波スキャンで取得したスキャン・データから2次元(2D)スキャン画像を生成する処理と、
上記第1入力特徴マップとして、3つのチャンネルの全てに上記2Dスキャン画像を有する第1の3次元(3D)画像テンソルを生成する処理と
を行うよう構成される。
実施例12は、実施例11の欠陥検出システムであって、上記第2入力特徴マップが、第2の3次元(3D)画像テンソルであり、
上記第2の3D画像テンソルの第1チャンネルに第1の2D基準超音波スキャン画像と、
上記第2の3D画像テンソルの第2チャンネルに第2の2D基準超音波スキャン画像と、
上記第2の3D画像テンソルの第3チャンネルに第3の2D基準超音波スキャン画像とを有する。
上記第2の3D画像テンソルの第1チャンネルに第1の2D基準超音波スキャン画像と、
上記第2の3D画像テンソルの第2チャンネルに第2の2D基準超音波スキャン画像と、
上記第2の3D画像テンソルの第3チャンネルに第3の2D基準超音波スキャン画像とを有する。
実施例13は、実施例11の欠陥検出システムであって、上記入力プリ・プロセッサが、
上記被試験対象物の超音波スキャンで取得したスキャン・データから2次元(2D)スキャン画像を生成する処理と、
上記2Dスキャン画像に関連する情報の2Dグラフィック表示画像を生成する処理と、
上記2Dスキャン画像の周辺に上記2Dグラフィック表示画像を追加して、上記第1入力特徴マップを提供する処理と
を行うよう構成される。
上記被試験対象物の超音波スキャンで取得したスキャン・データから2次元(2D)スキャン画像を生成する処理と、
上記2Dスキャン画像に関連する情報の2Dグラフィック表示画像を生成する処理と、
上記2Dスキャン画像の周辺に上記2Dグラフィック表示画像を追加して、上記第1入力特徴マップを提供する処理と
を行うよう構成される。
実施例14は、実施例9の欠陥検出システムであって、上記判断ロジックが、スキャンされた上記被試験対象物に欠陥が含まれると判断した場合に、上記欠陥検出システムが上記2Dスキャン画像を処理して、上記欠陥の分類を行うよう構成される。
実施例15は、実施例9の欠陥検出システムであって、上記入力プリ・プロセッサが、
被試験対象物に欠陥が含まれているか否かを示すメタデータにアクセスする処理と、
上記第1出力特徴マップと上記第2出力特徴マップとアクセスされた上記メタデータとの間のユークリッド距離に基づいて、対照損失を生成する処理と、
少なくとも部分的に上記対照損失の変化に基づいて上記第1重み値セットをアップデートする処理と
を更に行うよう構成される。
被試験対象物に欠陥が含まれているか否かを示すメタデータにアクセスする処理と、
上記第1出力特徴マップと上記第2出力特徴マップとアクセスされた上記メタデータとの間のユークリッド距離に基づいて、対照損失を生成する処理と、
少なくとも部分的に上記対照損失の変化に基づいて上記第1重み値セットをアップデートする処理と
を更に行うよう構成される。
実施例16は、実施例9の欠陥検出システムであって、コンピュータで実装される上記第1ニューラル・ネットワークが、複数の相互相関層を有するディープ・ニューラル・ネットワークを含む。
加えて、本願の記述は、特定の特徴に言及している。本明細書での開示技術は、これら特定の特徴のあり得る全ての組み合わせを含むと理解すべきである。例えば、ある特定の特徴が特定の形態に関連して開示される場合、その特徴は、可能である限り、他の形態との関連においても利用できる。
また、本願において、2つ以上の定義されたステップ又は工程を有する方法に言及する場合、これら定義されたステップ又は工程は、状況的にそれらの可能性を排除しない限り、任意の順序で又は同時に実行しても良い。
説明の都合上、本発明の具体的な実施例を図示し、説明してきたが、本発明の要旨と範囲から離れることなく、種々の変更が可能なことが理解できよう。従って、本発明は、添付の請求項以外では、限定されるべきではない。
当業者は、本開示が実施例によって記載されたことを理解できよう。本開示は、記載及び請求されるように本開示と等価である専用ハードウェアや専用プロセッサなどのハードウェア・コンポーネント等価物を使用して実施できる。同様に、専用プロセッサや専用ハード・ワイヤード・ロジックを使用して、本開示の代替の等価実施形態を構築できる。
本願に記載される様々な実施形態は、プログラミング命令を実行する専用ハードウェア、設定変更可能なハードウェア又はプログラムされたプロセッサを使用して実装され、フローチャートの形態で説明される、こうしたプログラミング命令は、任意の適切な電子記憶媒体に格納されても良いし、任意の適切な電子通信媒体を介して送信されても良い。当業者であれば、上述のプロセス及びメカニズムが、本開示から逸脱することなく、任意に変形して実施されても良いことを理解できよう。例えば、実行される特定の動作の順序を変化させることができ、本開示から逸脱することなく、追加の動作を加えることができ、又は、動作を削除できる。そのような考え得る変形は、等価とみなされる。
本願で詳細に説明されている様々な代表的実施形態は、これらに限定すること意図するものではなく、例として提示されている。当業者であれば、記載された実施形態の形態及び詳細に様々な変更を加えることで、添付の特許請求の範囲内に留まる等価な実施形態を得られることが理解できよう。
100 超音波スキャナ
102 超音波トランシーバ
104 超音波レシーバ
106 位置決めスキャナ
108 対象物(被試験デバイス:DUT)
110 コントローラ
112 パルス生成部
114 データ取得システム
116 デジタル・スキャン・データ
118 スキャン位置データ
120 データ・プロセッサ
122 ストレージ
124 ユーザ・インタフェース
200 スキャン・データ処理装置
202 画像生成部
204 サブ画像抽出ブロック
206 サブ画像
208 基準画像配列ブロック
210 基準画像
212 グラフ画像生成ブロック
214 パラメータのグラフ
216 入力マップ生成部
218 入力特徴マップ
220 ディープ・ニューラル・ネットワーク
222 欠陥の有無や欠陥のクラス
224 重みの値
300 ニューラル・ネットワークのトレーニング装置
302 自動分類部
304 メタデータ
306 エラー・ブロック
308 エラー
310 トレーニング・ブロック
400 超音波欠陥検出及び分類システム
402 第1入力マップ生成部
404 第1ディープ・ニューラル・ネットワーク
406 第2入力マップ生成部
408 第2ディープ・ニューラル・ネットワーク
410 グラフ・パラメータ画像生成部
412 重み値
418 比較ブロック
420 合否信号
422 自動欠陥分類部
424 欠陥分類情報
500 シャム・ニューラル・ネットワークのトレーニング装置
502 自動欠陥分類部
504 合否信号
506 対照損失生成部
508 対照損失
700 第1入力特徴マップ
702 スキャンされた対象物の2D画像
704 画像中の欠陥のある領域
710 第2入力特徴マップ
712 欠陥のない対象物の2D画像
714 欠陥のない対象物の2D画像
716 欠陥のない対象物の2D画像
720 別の入力特徴マップ
722 スキャンされた対象物の2D
724 欠陥のない対象物の2D画像
726 パラメータのグラフ画像
728 画像中の欠陥のある領域
102 超音波トランシーバ
104 超音波レシーバ
106 位置決めスキャナ
108 対象物(被試験デバイス:DUT)
110 コントローラ
112 パルス生成部
114 データ取得システム
116 デジタル・スキャン・データ
118 スキャン位置データ
120 データ・プロセッサ
122 ストレージ
124 ユーザ・インタフェース
200 スキャン・データ処理装置
202 画像生成部
204 サブ画像抽出ブロック
206 サブ画像
208 基準画像配列ブロック
210 基準画像
212 グラフ画像生成ブロック
214 パラメータのグラフ
216 入力マップ生成部
218 入力特徴マップ
220 ディープ・ニューラル・ネットワーク
222 欠陥の有無や欠陥のクラス
224 重みの値
300 ニューラル・ネットワークのトレーニング装置
302 自動分類部
304 メタデータ
306 エラー・ブロック
308 エラー
310 トレーニング・ブロック
400 超音波欠陥検出及び分類システム
402 第1入力マップ生成部
404 第1ディープ・ニューラル・ネットワーク
406 第2入力マップ生成部
408 第2ディープ・ニューラル・ネットワーク
410 グラフ・パラメータ画像生成部
412 重み値
418 比較ブロック
420 合否信号
422 自動欠陥分類部
424 欠陥分類情報
500 シャム・ニューラル・ネットワークのトレーニング装置
502 自動欠陥分類部
504 合否信号
506 対照損失生成部
508 対照損失
700 第1入力特徴マップ
702 スキャンされた対象物の2D画像
704 画像中の欠陥のある領域
710 第2入力特徴マップ
712 欠陥のない対象物の2D画像
714 欠陥のない対象物の2D画像
716 欠陥のない対象物の2D画像
720 別の入力特徴マップ
722 スキャンされた対象物の2D
724 欠陥のない対象物の2D画像
726 パラメータのグラフ画像
728 画像中の欠陥のある領域
Claims (13)
- 1つ以上のコンピューティング・デバイスにおいて、被試験対象物の超音波スキャンで取得されたスキャン・データにアクセスするステップと、
上記スキャン・データから、2次元(2D)スキャン画像を含む第1入力特徴マップを生成するステップと、
上記第1入力特徴マップを第1ディープ・ニューラル・ネットワークに入力して、第1出力特徴マップを生成するステップと、
欠陥のない対象物のスキャン画像を含む第2入力特徴マップを、上記第1ディープ・ニューラル・ネットワークと同じ構造及び重み値を有する第2ディープ・ニューラル・ネットワークに入力して、第2出力特徴マップを生成するステップと、
上記第1及び第2出力特徴マップ間の距離が大きい場合に、スキャンされた上記被試験対象物が欠陥を含むと判断するステップと
を具えるコンピュータで実装される欠陥検出方法。 - 上記第1入力特徴マップを生成するステップが、3つのチャンネルの全てに2Dスキャン画像を有する第1の3次元(3D)画像テンソルを生成構築するステップを有し、
上記第2入力特徴マップを生成するステップが、第2の3次元(3D)画像テンソルを生成するステップとを有し、上記第2の3D画像テンソルが、
上記第2の3D画像テンソルの第1チャンネルに欠陥のない対象物の第1の2Dスキャン画像と、
上記第2の3D画像テンソルの第2チャンネルに欠陥のない対象物の第2の2Dスキャン画像と、
上記第2の3D画像テンソルの第3チャンネルに欠陥のない対象物の第3の2Dスキャン画像と
を有する請求項1のコンピュータで実装される欠陥検出方法。 - 上記第1ディープ・ニューラル・ネットワークの出力と上記第2ディープ・ニューラル・ネットワークの出力との間の距離の対照損失に基づいて、上記第1及び第2ディープ・ニューラル・ネットワークの重み値を調整するステップを更に具える請求項1のコンピュータで実装される欠陥検出方法。
- スキャンされた上記被試験対象物が欠陥を含むと判断されたときに、上記被試験対象物の上記2Dスキャン画像を自動欠陥分類部に渡すステップを更に具える請求項1のコンピュータで実装される欠陥検出方法。
- 1つ以上のコンピューティング・デバイスにおいて、被試験対象物の超音波スキャンで取得されたスキャン・データにアクセスするステップと、
上記スキャン・データから、2次元(2D)スキャン画像を生成するステップと、
上記2Dスキャン画像に関連する情報の2Dグラフィック表示画像を生成するステップと、
被試験対象物の欠陥分類メタデータを生成するステップと、
第1チャンネルに上記2Dスキャン画像を有し、第2チャンネルに欠陥のない対象物の2D画像を有し、第3チャンネルに上記2Dグラフィック表示画像を有する3次元(3D)画像テンソルを生成するステップと、
上記3D画像テンソルをディープ・ニューラル・ネットワークに入力するステップと、
上記ディープ・ニューラル・ネットワークの出力を上記欠陥分類メタデータと比較するステップと、
上記ディープ・ニューラル・ネットワークの出力と上記欠陥分類メタデータとの間の整合性を改善するように上記ディープ・ニューラル・ネットワークの出力層の重み値を調整するステップと、
調整された上記重み値を保存するステップと
を具えるコンピュータで実装される欠陥検出方法。 - 上記被試験対象物の欠陥分類メタデータをトレーニング・データ・セットに格納するステップと、
上記3次元(3D)画像テンソルを上記トレーニング・データ・セットに格納するステップと
を有する上記トレーニング・データ・セットを記憶するステップを更に具える請求項5のコンピュータで実装される欠陥検出方法。 - 第1入力特徴マップに第1重み値セットを適用することによって第1出力特徴マップを生成するように構成されたコンピュータで実装される第1ニューラル・ネットワークと、
被試験対象物の超音波スキャンで取得されたデータに、上記第1ニューラル・ネットワークの上記第1入力特徴マップをマッピングするように構成された入力プリ・プロセッサと、
1つ以上の基準超音波スキャンからマッピングされる第2入力特徴マップに上記第1重み値セットを適用することによって第2出力特徴マップを生成するように構成されたコンピュータで実装される第2ニューラル・ネットワークと、
上記第1出力特徴マップと上記第2出力特徴マップとの間の差に基づいて類似度を生成するように構成された比較部と、
上記類似度に基づいて、スキャンされた上記被試験対象物に欠陥が含まれるか否かを判断するように構成された判断ロジックと
を具える欠陥検出システム。 - 上記基準超音波スキャン・データを記憶するメモリを更に具え、上記基準超音波スキャン・データが、欠陥のない対象物のスキャン・データである請求項7の欠陥検出システム。
- 上記入力プリ・プロセッサが、
上記被試験対象物の超音波スキャンで取得したスキャン・データから2次元(2D)スキャン画像を生成する処理と、
上記第1入力特徴マップとして、3つのチャンネルの全てに上記2Dスキャン画像を有する第1の3次元(3D)画像テンソルを生成する処理と
を行うよう構成される請求項7の欠陥検出システム。 - 上記第2入力特徴マップが、第2の3次元(3D)画像テンソルであって、
上記第2の3D画像テンソルの第1チャンネルにおいて第1の2D基準超音波スキャン画像を有し、
上記第2の3D画像テンソルの第2チャンネルにおいて第2の2D基準超音波スキャン画像を有し、
上記第2の3D画像テンソルの第3チャンネルにおいて第3の2D基準超音波スキャン画像を有する請求項7の欠陥検出システム。 - 上記入力プリ・プロセッサが、
上記被試験対象物の超音波スキャンで取得したスキャン・データから2次元(2D)スキャン画像を生成する処理と、
上記2Dスキャン画像に関連する情報の2Dグラフィック表示画像を生成する処理と、
上記2Dスキャン画像の周辺に上記2Dグラフィック表示画像を追加して、上記第1入力特徴マップを提供する処理と
を行うよう構成される請求項7の欠陥検出システム。 - 上記判断ロジックが、スキャンされた上記被試験対象物に欠陥が含まれると判断した場合に、上記欠陥検出システムが上記2Dスキャン画像を処理して、上記欠陥の分類を行うよう構成される請求項7の欠陥検出システム。
- 上記入力プリ・プロセッサが、
被試験対象物に欠陥が含まれているか否かを示すメタデータにアクセスする処理と、
上記第1出力特徴マップと上記第2出力特徴マップとアクセスされた上記メタデータとの間のユークリッド距離に基づいて、対照損失を生成する処理と、
少なくとも部分的に上記対照損失の変化に基づいて上記第1重み値セットをアップデートする処理と
を更に行うよう構成される請求項7の欠陥検出システム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US202263324340P | 2022-03-28 | 2022-03-28 | |
US63/324,340 | 2022-03-28 | ||
US18/124,362 | 2023-03-21 | ||
US18/124,362 US20230306578A1 (en) | 2022-03-28 | 2023-03-21 | Ultrasonic defect detection and classification system using machine learning |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023145412A true JP2023145412A (ja) | 2023-10-11 |
Family
ID=87930996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023051445A Pending JP2023145412A (ja) | 2022-03-28 | 2023-03-28 | 欠陥検出方法及びシステム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230306578A1 (ja) |
JP (1) | JP2023145412A (ja) |
KR (1) | KR20230139806A (ja) |
DE (1) | DE102023107476A1 (ja) |
TW (1) | TW202345103A (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11940889B2 (en) * | 2021-08-12 | 2024-03-26 | Tektronix, Inc. | Combined TDECQ measurement and transmitter tuning using machine learning |
-
2023
- 2023-03-21 US US18/124,362 patent/US20230306578A1/en active Pending
- 2023-03-24 TW TW112111151A patent/TW202345103A/zh unknown
- 2023-03-24 DE DE102023107476.8A patent/DE102023107476A1/de active Pending
- 2023-03-28 KR KR1020230040331A patent/KR20230139806A/ko unknown
- 2023-03-28 JP JP2023051445A patent/JP2023145412A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
DE102023107476A1 (de) | 2023-09-28 |
TW202345103A (zh) | 2023-11-16 |
US20230306578A1 (en) | 2023-09-28 |
KR20230139806A (ko) | 2023-10-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7116106B2 (ja) | 多重モードを備えた検査システム及び方法 | |
CN111539908B (zh) | 对样本的缺陷检测的方法及其系统 | |
US9601393B2 (en) | Selecting one or more parameters for inspection of a wafer | |
WO2019117065A1 (ja) | データ生成装置、データ生成方法及びデータ生成プログラム | |
US10014229B2 (en) | Generating a wafer inspection process using bit failures and virtual inspection | |
CN109690749A (zh) | 用于图像融合的以卷积神经网络为基础的模式选择及缺陷分类 | |
TW202142852A (zh) | 半導體試樣的基於深度學習之檢查的方法及其系統 | |
KR20190098262A (ko) | 심층적으로 적층된 층들을 갖는 웨이퍼들에서 결함 분류기를 트레이닝하고 적용하기 위한 시스템, 방법 | |
CN111164646A (zh) | 用于大型偏移裸片对裸片检验的多步骤图像对准方法 | |
KR20210150970A (ko) | 약한 라벨링을 사용한 반도체 시편들에서의 결함들의 검출 | |
JP2022027473A (ja) | 半導体試料の検査に使用可能な訓練データの生成 | |
JP2023145412A (ja) | 欠陥検出方法及びシステム | |
CN111492198A (zh) | 物体形状测量装置和方法以及程序 | |
CN116818891A (zh) | 使用机器学习的超声缺陷检测和分类系统 | |
US20220335288A1 (en) | Systems, apparatuses and methods for detecting and classifying patterns of heatmaps | |
CN116152153A (zh) | 用于自动化缺陷检测的方法和装置 | |
JP7475901B2 (ja) | 試験片上の欠陥検出の方法およびそのシステム | |
CN116802676A (zh) | 用于使用芯片设计数据以改进光学检验及计量图像质量的方法 |