JP2022525197A - 機械学習を用いた半導体製造データ取得機器における拡張された分解能 - Google Patents

機械学習を用いた半導体製造データ取得機器における拡張された分解能 Download PDF

Info

Publication number
JP2022525197A
JP2022525197A JP2021555451A JP2021555451A JP2022525197A JP 2022525197 A JP2022525197 A JP 2022525197A JP 2021555451 A JP2021555451 A JP 2021555451A JP 2021555451 A JP2021555451 A JP 2021555451A JP 2022525197 A JP2022525197 A JP 2022525197A
Authority
JP
Japan
Prior art keywords
data
dataset
resolution
data set
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021555451A
Other languages
English (en)
Inventor
チェン,ヤン
ティアン,シンカン
ヤン,ツェン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Electron Ltd
Original Assignee
Tokyo Electron Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Electron Ltd filed Critical Tokyo Electron Ltd
Publication of JP2022525197A publication Critical patent/JP2022525197A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0275Details making use of sensor-related data, e.g. for identification of sensor parts or optical elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/28Investigating the spectrum
    • G01J3/2823Imaging spectrometer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J3/18Generating the spectrum; Monochromators using diffraction elements, e.g. grating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Manufacturing & Machinery (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Image Analysis (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Drying Of Semiconductors (AREA)

Abstract

半導体製造プロセスの状態又は製造される半導体構造を示すデータセットが、メモリ回路に記憶される。データセット内の特徴は、データ分解能によって制限される範囲まで識別可能である。モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含む機械学習モデルもまた、メモリ回路に記憶される。メモリ回路に通信可能に連結されるプロセッサ回路は、出力データセット内の特徴がデータセットのデータ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能であるように、機械学習モデルに従ってデータセットから出力データセットを生成する。

Description

関連出願の相互参照
本出願は、2019年3月15日に出願された「Deep-learning Enhanced Spectrometer Resolution Techniques」と題する米国仮特許出願第62/819,115号からの米国特許法第119条(e)に基づく優先権の利益を主張するものであり、この仮特許出願の開示全体が参照により本明細書に組み込まれる。
本開示は、半導体処理プロセス又は半導体基板上に形成される特徴をモニタリングするために使用される画像及びスペクトルデータについての撮像及びスペクトル分解能改善のための技術に関する。特に、本開示は、低分解能画像又はスペクトルデータを訓練済み人工ニューラルネットワークに適用して、高分解能画像又はスペクトルデータを生成するための新規な技術を提供する。
広帯域コンパクト分光計は、終点検出などの様々なプロセス制御目的で光学発光スペクトルを収集するために、半導体プラズマエッチングプロセスにおいて広く用いられている。分光計システムの信号対雑音比(SNR)は、制御信号が生成される情報の品質を定義する。SNRは、通常、分光計のスループットに高度に比例する。典型的には、分光計の性能は、スペクトル帯域幅、即ち検出可能な波長範囲と、スペクトル分解能、即ち分解可能な最も高精細のスペクトル特徴と、光学スループット、即ち検出器によって収集される光の割合と、を含む少数の臨界パラメータによって定量化される。
より高分解能の分光計は、典型的には、高分解能の結果を取得するためにスループット及びスペクトル(波長)範囲を犠牲にすることになる。同様に、より高いスループット及びより広いスペクトル範囲のために設計された分光計は、典型的には、より低い解像度を有することになる。特に、機器のコストが制限のある設計因子である場合に、低分解能分光計のスループット及びスペクトル範囲を維持しつつ、スペクトルデータ内のより微細な細部を分解する能力は、現在最も高分解能の分光計において利用可能ではない。今日利用可能な多くの分光計設計は、設計に重要なパラメータ間のトレードオフを含む。スペクトル分解能を改善する単純且つ効果的な方法は、分光計入口としてより狭いスリットを使用することであり、分光計入口は、電荷結合素子(CCD)検出器上で回折スペクトルの各波長の「画像」を有効に狭めるが、それは、スリットを通過する光が減少すること及び対応する情報を犠牲にして生じる。物理的な分光計設計のみによって、分解能とスループットとの間のトレードオフを克服するのは非常に困難である。
本開示の1つの目的は、従来の分光計に関連する物理設計パラメータとの上述したトレードオフを緩和することである。
本開示の別の目的は、低分解能分光計の使用によってスペクトルデータを収集することを可能にすること、及びスループット又はスペクトル範囲を犠牲にすることなくスペクトルデータ又は画像内のより微細な細部を分解可能にすることである。
本発明の概念の一態様において、半導体製造プロセスの状態又はそれによって製造される半導体構造を示すデータセットを記憶するメモリ回路を含む、装置が提供される。データセット内の特徴は、データ分解能によって制限される範囲まで識別可能である。メモリ回路は、モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含む機械学習モデルも記憶する。プロセッサ回路は、メモリ回路に通信可能に連結され、出力データセット内の特徴がデータセットのデータ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能であるように、機械学習モデルに従ってデータセットから出力データセットを生成する。
本発明の概念が具現化され得る例としてのシステムの概略ブロック図である。 本発明が具現化され得る人工ニューラルネットワーク(ANN)の概略図である。 本発明が具現化され得る例としての分光計の概略図である。 本発明の実施形態においてデータをシミュレートするための分光計入口スリット及びその画像420の概略図である。 本発明の実施形態において用いられる低分解能分光計のアンダーフィル及びオーバーフィル実施態様のための低分解能スペクトルデータのグラフである。 本発明の実施形態において用いられる高分解能分光計のアンダーフィル及びオーバーフィル実施態様のための高分解能スペクトルデータのグラフである。 本発明が具現化され得る例示的訓練プロセスを示すフロー図である。 本発明が具現化され得る例示的生成プロセスを示すフロー図である。
本発明の概念は、添付図面を参照して本明細書で詳細に説明される、本発明のある実施形態を通して最もよく説明される。添付図面において、類似の参照番号は、全体を通して類似の特徴を参照する。発明という用語は、本明細書で使用されるとき、単に実施形態それ自体ではなく、以下で説明される実施形態の基礎となる発明的概念を内包することを意図するものであると理解されたい。汎用的な発明的概念は、以下で説明される例示的実施形態に限定されず、以下の説明はそのような見解で読まれるべきであるとさらに理解されたい。
例示的という単語は、本明細書において「実施例、事例、又は例示としての役割をすること」を意味するために使用される。本明細書において例示と呼ばれる構造、プロセス、設計、技術などのいかなる実施形態も、他のそのような実施形態よりも必ずしも好適又は有利であると解釈されるべきではない。本明細書において例示として示される実施例の特定の品質又は適合性が、意図されることも推測されるべきでもない。
加えて、本明細書には数式が含まれており、伝達される原理は数式を用いて完全に説明されると受け取られるべきである。数学が用いられる場合、それは、説明されている基礎原理の簡潔な説明のためであり、そうでないことが表されない限り他の目的は示唆されておらず、又は推測されるべきではないと理解されたい。本明細書において数学がどのように本発明に関係するかということ、及び数式の基礎となる原理の実施形態が意図される場合に、数学的に表現されている原理の物理的発現を実行するための多数の技術を当業者が認識することは、本開示の全体から明らかである。
本開示は、低分解能(LR)分光計又は画像取込デバイスによって収集されるデータから高分解能(HR)データセットを「構築すること」又は生成することに関する。言い換えると、本明細書で開示される技術は、HR分光計が、LR分光計の拡張された波長範囲及び高い光スループットで動作することを可能にする。さらに、より低い分解能画像からより高い分解能画像データを生成するために、類似技術の変形が使用され得る。
本明細書で説明される発明は、深層学習技術を、例えば従来の光学分光計設計によって収集される比較的低い分解能スペクトルデータと組み合わせて、半導体プロセス又は半導体基板上の特徴に関連する(例えば、経験的又はシミュレートされた)低分解能及び高分解能データセットのペアを分析することに基づいて構築された予測モデルを用いてより高分解能のデータを取得する。このようにして、既存の比較的高分解能の分光計又は撮像システム及び技術を用いるよりも、低コストのハードウェア及び速いサイクル時間で、半導体プロセス又は基板特徴の高分解能データが取得され得る。例えば、スペクトルの実施形態において、スペクトルデータセットの品質を定義する臨界基準は、帯域幅(即ち、検出可能な波長範囲)、分解能(即ち、分解可能な最も高精細のスペクトル特徴)、及び光学スループット(即ち、検出器によって収集される光の割合)を含む。大抵の事例では、前述した要素は、半導体製造についての予測可能且つ有意義な結果(例えば、パターン、特徴、又はプロセス条件)を最短可能時間で達成するように、分光計の物理設計のトレードオフによって互いに均衡が保たれている。例えば、より高分解能の分光計データセットを得ることは、より高いスループット及び波長範囲を犠牲にして達成される。したがって、それらを犠牲にすることなく、より高分解能のデータを取得することが有利となる。スペクトルの実施形態に加えて、分析されている半導体プロセス又は基板特徴のより高い分解能情報又は特性を解読するために、深層学習技術が、他の低分解能データ(例えば、画像)に適用されてもよい。
この有利なケイパビリティを実現するための一手法は、より低分解能のデータセットから高分解能データセットを生成することが可能な機械学習(ML)モデルを構築することである。理想的には、モデル生成された高分解能データが情報を提供することがあり、その情報は、そのような低分解能データがMLモデルによって処理されない限り、低分解能データから容易に識別可能ではない。MLモデルは、畳み込みニューラルネットワーク(CNN)などの人工ニューラルネットワーク(ANN)を訓練するために用いられ得る統計的変換又は関係を判断するために、実験的に又はシミュレーションにより収集される低分解能及び高分解能訓練データを分析することによって準備され得る。例えば、複数の層のCNNは、プロセス又は特徴についての低分解能データを高分解能データに統計的に関係付けるように訓練され得る。低分解能及び高分解能データは、データセット間の統計的関係の堅牢性を改善するために、類似の、又はわずかに異なるプロセス又は特徴に対して収集され得る。このようにして、MLモデルは、高分解能結果を正確に予測するために開発され、モデル化された結果を実際の高分解能データと比較することによって最適化され得る。モデルの正確性及び精度を検証した後、訓練済みネットワークが低分解能データに適用されて、対応する高分解能データ又は半導体プロセス若しくは特徴に関する結果を生成し得る。プロセス又は基板特徴を表す、対応する低分解能及び高分解能データセットを生成するために、2つの分光計が使用され得る。しかしながら、他の実施形態では、低分解能及び高分解能データセットは、実際のプロセス条件を近似するために、測定されたスペクトルのシミュレーションによって生成されてもよい。このようにして、完全にシミュレートされた低データセット及び高データセット、シミュレーション及び実験による訓練ペアの組み合わせ、又はシミュレートされたデータ及び実験データを含む訓練ペアを訓練データセットが含み得るように、シミュレートされたスペクトルデータは、既知の又は観測された現象に基づいてスペクトルの特定の特性をシミュレートするように最適化され得る。
図1は、本発明の概念が具現化され得る例としてのシステム100の概略ブロック図である。限定ではなく説明の目的で、システム100は、半導体製造のために構築されるか又は構成されてもよく、製造処理の多くは、チャンバ5に代表的に示される1つ又は複数の密封チャンバにおいて発生する。チャンバ5は、ポート7に代表的に示される1つ又は複数のポートを含んでもよく、ポートによって、分光学、光学撮像、又は当業者に既知の他の技術により含む、チャンバ5の内部で発生するプロセスがモニタリングされ得る。そのような内部プロセスは、材料堆積及びエッチングを含んでもよく、その両方が、プロセス依存構成のものであるプラズマを利用してもよい。チャンバ5内の成分は、例えば分光学によって評価され得る。他のプロセスは、光学又は電子撮像を用いてモニタリングされるか、又は検査されてもよい。本開示を検討して当業者により認識されるように、本発明の概念の実施形態が、分光光学的取得画像及び他の取得された画像に適用可能な技術を実施する。
システム100は、データ及びプロセッサ命令コードが記憶されるメモリ回路120と、データ及び制御プロセスが実行されるプロセッサ回路130と、人間のユーザが特にデータ分析及び制御の目的でシステム100とインタフェースするユーザインタフェース回路140と、を含むプロセッサ150を含み得る。図1に示されるように、メモリ回路120は、データセットをデータ記憶場所122などに、機械学習モデルをモデル記憶場所124などに、及びプロセッサ命令コードをコード記憶場所126などに、記憶するように構築され、又は構成され得る。プロセッサ命令コードは、(MLエンジンが専用回路においてハードウェア実施されていないときに)MLエンジンコードをMLエンジンコード記憶場所127などに、及びプロセス制御コードをプロセスコントローラコード記憶場所129などに、含み得る。プロセッサ回路130は、MLエンジン132及びプロセスコントローラ134に示されるように、メモリ回路120に記憶されたプロセッサ命令コードを実行するように構築され、又は構成され得る。
システム100は、データ取得機器105l及び105hにおいてそれぞれ示されるデータ取得機構をさらに含み得る。上記で示されるように、本発明は、多様な異なるデータタイプにおいて分解能を増大させるために具現化されてもよく、低分解能データ110lを生成する低分解能データ取得機器を表す機器105l、及び高分解能データ110hを生成する高分解能データ取得機器を表す機器105hなどの機器は、例えば、画像データ、スペクトルデータなどのアプリケーション固有データを収集するために使用され得る任意の数のデバイスを表す。以下の説明は主にスペクトルデータセットを対象としているが、他のデータは、本発明の実施形態において用いられ得ると理解されたい。
実験データ又はシミュレートされたデータは、低分解能データセット110lと高分解能データセット110hとの間の予測可能な関係を確立又は定義するために、様々な条件又は変数の下で収集又は生成され得る。関係は、プロセス条件、特徴タイプ、又は検出技術の間の共通要素に基づき得る。しかしながら、関係は、データセット110lと110hとの間の差異又は異種要素(例えば、デバイス設定/構成(スリットサイズ、視野、開口サイズ))に基づいて割り当てられ得る。事実、データセット110l及び110hは、観測されたプロセス条件又は特徴についての分解能分布を得るために、多様なデバイス設定/構成オプションに沿って収集又は生成され得る。訓練関係は、プロセス条件特性に関連する1つ又は複数の高分解能データセット110hに1つ又は複数の低分解能データセット110lをグループ化し得る。プロセス条件特性は、プロセスに関連する化学組成、温度、密度、及び/又はエネルギー若しくは信号を含み得るが、これらに限定されない。加えて、関係は、温度、圧力、ガス流量、印加電力、印加電圧、回転速度、変換速度、液体分配速度、液体分配量を含み得るが、これらに限定されない、チャンバ5において実施されるプロセス条件(例えば、セットポイント)まで拡張してもよい。さらに、プロセス条件は、それぞれの特性についての分布又はプロファイルとして構成された結果の範囲を含み得る。プロセス条件に加えて、スペクトルデータは、基板上の1つ又は複数の特徴を表してもよい。この事例では、特徴特性は、厚さ、幅、高さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルを含むが、これらに限定されない。加えて、特徴特性は、面積、特徴間の距離、又は互いに対する特徴の向き(例えば、特徴の重なり、露出面積、アライメント)を参照し得る。実験又はシミュレーションによるLR及びHRデータセットが生成される上記適用のいずれかが、本明細書で説明される技術を用いて人工ニューラルネットワークを訓練するために用いられ得る。
システム100は、2つの動作モード、機械学習モデルがデータ分解能を増大させるように構成される訓練モード、及びデータ分解能が構成済み(訓練済み)モデルに基づいて増大される生成モードにおいて、動作され得る。生成モードでは、LRデータセット110l(画像、スペクトル)は、LRデータ取得機器105l(イメージャ、分光計)を通して取得され、プロセッサ150に提供される。プロセッサ150は、LRデータセット110lをMLエンジン132に伝達し得る。MLエンジン132は、以下で説明されるように前もって訓練されているMLモデルに従ってデータを処理して、データの分解能を増大させ得る。分解能増大データセットは、ユーザインタフェース140上に提示されてもよく、ユーザインタフェース140上で、それが生成担当者によって分析されてもよい。一実施形態では、分解能増大データセットは、プロセスコントローラ134に提供され、プロセスコントローラ134によって、データは、特定の目標プロセス状態に到達しているかどうかを判断するために分析される。例えば、分解能増大データセットの分析は、プロセス終点を示す、チャンバ5内のあるガス成分を明らかにし得る。そのような終点において、プロセスコントローラ134は、チャンバ5内で発生する全てのプロセスのプロセス遷移又は中断を命令又は指揮し得る。
図2は、本発明が具現化され得る人工ニューラルネットワーク(ANN)200の概略図である。本発明は、出力データにおいてデータ分解能を増大させる目標に到達する限り、特定のANN実施態様に限定されない。例示される実施例において、ANN200は、入力畳み込み層210と、残差ブロック220及び230においてそれぞれ示される複数の残差ブロックB~Bと、出力畳み込み層240と、を含むピラミッド状残差ニューラルネットワークとして構築され、又は構成される。ANN200において、1)内部特徴マップのサイズ又は特徴マップチャネルの数が、ANNの入力から出力へと徐々に増大し、2)勾配消失/爆発問題に対処するアイデンティティマッピングが、最短パスで実現される。
図2の例としての実施形態では、本明細書においてLRデータセット205とそれぞれ呼ばれるLRデータセット205a~205mが、入力畳み込み層210に提供され得る。入力畳み込み層210は、他の可能な動作のうち、本明細書において特徴マップ215とそれぞれ呼ばれる、対応する特徴マップ215a~215mに各データセット205をマッピングする。特徴マップ215は、残差ブロック220に提供され得る。残差ブロック220は、ANN200内の全てのK個の残差ブロックで同様に、第1の畳み込み層260a、第1の活性化層265a、第2の畳み込み層260b、及び第2の活性化層265bを含み得る。加えて、各特徴マップ215は、本明細書でショートカットパス217とそれぞれ呼ばれるそれぞれのショートカットパス217a~217nにおいて、本明細書で合計ノード225とそれぞれ呼ばれる合計ノード225a~225nに提供され得る。その結果、各合計ノードの出力は、
k+1=X+ψ{ψ(X*W (1))*W (2)
によって与えられ得る。ここで、Xは、k番目の残差ブロックに対する入力であり、Xk+1は、その出力である。ψは、活性化関数(例えば、正規化線形ユニット(ReLU))である。*は、畳み込み演算子であり、W (1)及びW (2)は、k番目のブロックの訓練可能な畳み込みカーネルである。バイアス項は、上記式から省略されていることに留意されるべきである。各畳み込み層によって生成される特徴マップは、
γk,j=Σφk,i*wk,i,j+βk,jΩ
によって与えられ得る。ここで、γk,jは、k番目の残差ブロックのj番目の畳み込み層の出力特徴マップである。φk,iは、k番目の残差ブロックのi番目の畳み込み層への入力特徴マップである。wk,i,jは、W (j)のi番目のカーネルであり、βk,jは、訓練可能なバイアス項であり、Ωは、全ての成分が単位元に設定される特徴マップサイズの行列である。
特徴マップ215は、残差ブロック220によって処理され、次の残差ブロック、即ち残差ブロック230に伝達され、次の残差ブロックでも同様に処理される。しかしながら、各残差ブロックは、前の残差ブロックによって生成されたものよりも大きな次元の特徴マップ(及び/又は関連特徴マップチャネル)を生成し得る。例えば、残差ブロック220への入力は、N個のチャネル227a~227nを含んでもよく、残差ブロック220の出力は、P個のチャネル232a~232pを含んでもよく、その場合に、P>Nである。この次元の不一致は、例えば、残差ブロック230をバイパスするショートカット接続、例えばショートカット接続227a~227nをゼロパディングすることによって、克服され得る。
データセットがANN200を通して前進し、その次元が徐々に増大するにつれて、さらに微細な特徴が残差ブロック毎に識別されて、元のデータセット205を超える分解能の増大に影響を与え得る。処理された特徴マップは、出力畳み込み層240に進み、出力畳み込み層240において、他の光学処理動作の中でも、本明細書で出力データセット245とそれぞれ呼ばれる出力データセット245a~245mに変換される。ANN200が訓練されている場合、出力データセット245は、データ分析又はプロセス制御などのためにANN外部の機構に提供される。一方、ANN200が訓練中である場合、出力データセット245は、元のLRデータセット205に含まれるデータに対応するように選択されている、本明細書でHR訓練データセット250とそれぞれ呼ばれる高分解能訓練データセット250a~250mと比較される。即ち、たとえ異なる分解能でも、同じ特徴が両方に存在するように、それぞれの元のLRデータセット205は、HR訓練データセット250と合致する。訓練中に、元のLRデータセット205は、ランダムに初期化された関数に従ってHRデータセットに変換される。変換されたHRデータセットは、差分などによって、対応するHR訓練データセットと適当に比較されて、誤差測度が判断される。そのような誤差測度を用いると、上述したW (j)及びβk,jなどのANNパラメータは、訓練損失関数などの目的関数を最小化(又は最大化)するように修正される。修正されたパラメータは、逆伝播チャネル257においてそれぞれ示される、ANN300を通して逆伝播され得る。プロセスは、他のHR出力データセットを生成するために、新たなパラメータを用いて繰り返され得る。プロセスは、訓練可能なネットワークパラメータが収束するとき、又は分解能の改善が達成されないときなど、訓練目標に到達するまで反復する。
LRデータセット205は、LR分光計データを含んでもよく、HRデータセット250は、HR分光計データを含んでもよい。スペクトルデータ自体に加えて、HR及びLRデータセットは、観測されるプロセス又はスペクトルデータに関連する特徴に関係する情報でラベリングされ得る。そのようなラベリングは、ランダムであるが類似のLRデータセットの入力に基づき予測可能なHR結果を生成することを必要とするモデル最適化のタイプに応じて、HR/LRデータセットの特定の態様を隔離するため、又はHR/LRデータセットのある態様を重ね合わせるために使用され得る。HR/LRデータセットは、HR/LRデータセットの1つ又は複数の組み合わせを含み得る訓練ペア内に照合されてもよく、HR/LR訓練ペア間の関係を識別することに基づいてANN200を訓練するために使用される。高いレベルにおいて、訓練は反復プロセスであり、反復プロセスにおいて、ML技術を用いてデータセット間の統計的関係を最適化する目的で、MLモデルに従って生成されたHRデータがHRデータセットと比較される。
別の実施形態では、LRデータセット205は、MLモデルを訓練するために使用され得る画像データを含む。この事例では、LRデータセット205は、LR画像によって表され、HRデータセット250は、HR画像によって表される。2つの画像は、上述の通り低分解能データ取得機器105l及び高分解能データ取得機器105hによって収集された入力データ表し得る。画像データに加えて、データセット間の差異又は類似点を強調するためにラベル情報が用いられ得るように、HR及びLRデータセットは、観測されるプロセス又は画像データに関連する特徴に関係する情報でラベリングされ得る。ラベル情報は、ランダムであるが類似のLRデータセットの入力に基づき予測可能なHR結果を生成することを必要とするモデル最適化のタイプに応じて、HR/LRデータセットの特定の態様を隔離するため、又はHR/LRデータセットのある態様を重ね合わせるために使用され得る。HR/LRデータセットは、HR/LRデータセットの1つ又は複数の組み合わせを含み得る訓練ペア内に照合され、HR/LR訓練ペア間の関係を識別することに基づいて、ML技術を用いてANN200を訓練するために使用され、それによって、MLモデルが、LRデータセット205を用いてHRデータセット245を予測又は生成することを可能にする。
上記で提供される訓練例は、本発明の実施形態のANNを訓練するための多くの可能性のうちのほんの1つであると理解されたい。一実施形態では、データ取得機器によって、又はデータ生成器によって生成されたデータセットは、例えば、学習技術を訓練するために用いられる訓練セット、モデルアーキテクチャを評価するために用いられる検証セット、及び訓練に用いられるデータセットだけではなくモデルが適当に汎化されているかどうかを判断するために用いられるテストセットに区画され得る。機械学習の当業者は、その思想及び意図する範囲から逸脱することなく、本発明を実施するための他の機械学習技術と同様に、本明細書で述べられている特定の詳細なしに、そのような区画されたデータセットを使用する方法を認識する。
再度図1に戻ると、システム100は、シミュレートされたデータセットをモデル訓練の目的で生成する、高分解能データ生成器115を含み得る。画像及びスペクトルデータに加えて、シミュレートされたスペクトルモデルデータが、ANN200を訓練するために使用され得る。しかしながら、訓練ペアは、低分解能及び高分解能シミュレーションから導出されてもよく、低分解能及び高分解能シミュレーションは、以下で図3に示される設計に類似の分光計からのLR及びHR分光計データの推定である。
図3は、本発明が具現化され得る例としての分光計300の概略図である。分光計300は、ツェルニー・ターナー設計に従ってもよく、入口スリット310、コリメートミラー320、回折格子330、折り畳みミラー340、及びアレイ検出器350を含む。図1のチャンバ5において発生する電気化学プロセスで生成されるものを含む光は、入口スリット310を通って分光計300に入り、コリメートミラー320から回折格子330上に反射し、そこで、衝突光がそのスペクトル成分に分解される。これらの成分が、折り畳みミラー340からアレイ検出器350上に反射し、それが、分析中に光のスペクトルコンテンツを示す電気信号を生成する。本質的には、入口スリット310のスペクトル分解された画像が、アレイ検出器350上に生成され、そのような結像は、図1のHRデータ生成器115によって実施される様々な光学系設計/分析技術を用いてシミュレートされ得る。
図4は、入口スリット310及び分光計300の光学系によって生成されるようなその画像420の概略図である。例示される実施形態において、本明細書において結像点412とそれぞれ呼ばれる、入口スリット310上の12個の結像点412a~412lが、結像のために選択される。光学設計/分析技術を通して、結像点412は、いくつかの選択された波長のそれぞれについて画像領域425においてそれぞれ示されるアレイ検出器350上に生成された画像420上に運ばれる。固定サイズのスリットの場合、結像点412の明瞭度は、波長依存回折によって影響を受けることに留意されたい。
モデルデータは、スペクトル中で類似の強度を有する300nm~900nmのスペクトルにわたる校正ランプからの光をシミュレートするLR及びHR分光計について生成され得る。実証の目的で、2つの異なる分光計設計がLR及びHR実施態様のためにモデル化されて、訓練ペアの2つのセットを形成する。訓練ペアのLRデータセットは、23umスリット及び1024CCDを用いてモデル化され、2つの追加のLRデータセットは、スリットに対する格子配置を変更することによって生成された。アンダーフィル実施形態は、オーバーフィル実施形態よりも格子がスリットの近くに位置する、分光計設計を表す。このようにして、LR訓練データセットは、より広い範囲のLR分光計設計及び/又はケイパビリティをカバーし、2つの異なるLR設計の間の性能(例えばSNR)の差異を示す。例えば、図5は、LR分光計設計の間の強度差を示しており、アンダーフィル実施形態は、オーバーフィル実施形態よりも高く、シャープなプロファイルを有する。
オーバーフィル及びアンダーフィルLRデータセットは、対応するオーバーフィル及びアンダーフィルHRデータセットとペアにされ得る。例としてのHRデータセットは、アンダーフィルデータセットとオーバーフィルデータセットとの間で格子距離を変更した、10umスリット及び2048x256ピクセルCCDを用いて生成された。図6は、強度差を強調することによってHR分光計設計間の差異を示している。LRデータセットとは対照的に、オーバーフィルデータセットは、アンダーフィルデータセットと比較してより高い強度信号をもたらした。
一旦ANN200が訓練され、検証されると、モデルは、適用可能な低分解能データセットに適用されて、低分解能入力に対応する推定される高分解能データを出力し得る。訓練方法とは対照的に、訓練済みモデルは、高分解能の対応物なしに低分解能データを受信し、データをモデルに適用して、対応する高分解能出力を生成する。低分解能データは、半導体処理プロセス又は半導体基板上の特徴に関する画像又はスペクトルデータを含み得るが、これらに限定されない。
半導体空間内で、深層学習技術が、観測されている特徴のサイズに依存して、マクロ適用とマイクロ適用との間に及ぶ画像に適用され得る。マクロ適用では、観測される特徴は、マクロレベルでプロセス動向を観測及びモニタリングするために、基板表面積の全体から比較的大きな表面積領域の間に及び得る。例えば、大きな表面積領域は、基板の周囲に延びる基板ベベル部又はエッジ除外領域(<5mm)を含み得る。同様に、基板の中心に向かって最大20mm延びる、エッジ除外領域に隣接する領域が、基板エッジに近接してプロセス性能をモニタリングするために観測され得る。この領域は、基板の中心に対するプロセス均一性問題について知られている。したがって、基板の中心及びエッジの画像を比較することは、プロセス逸脱を観測若しくは検出するため、又はin-situプロセス不均一性若しくは到来プロセス不均一性を考慮するようにプロセスを調整するために有益である。いくつかの事例では、中心とエッジとの関係は、適用に応じて低モデルから高モデルを訓練するために用いられ得る。マクロ適用では、画像取込デバイスは、分析のためのピクセル化された画像を生成するデジタルシステム又はアナログデジタルシステムであってもよい。一実施形態では、画像取込デバイスは、CCDカメラであってもよい。対照的に、マイクロ適用実施形態は、マクロ適用と比較すると、ダイにまたがる比較的小さな特徴又はダイ内の小さな領域を観測するためのものである。例えば、マイクロ適用画像は、原子層精度でプロセスを制御及びモニタリングするスケールのものであってもよい。トランジスタゲート構造(例えば、FinFET)、トランジスタのコンポーネント(例えば、コンタクト、アイソレーション)、又は配線工程(BEOL)特徴(例えば、金属線ピッチ、ビア)の原子層制御は、必須である。一実施形態では、マイクロ適用画像は、基板のトポロジ情報及び組成情報を提供する電子の集束ビームで基板表面/特徴を走査する走査型電子顕微鏡(SEM)によって生成され得る。代替として、画像は、プラズマ処理を含むがこれに限定されない半導体プロセスをモニタリングするために、光学発光分光法を用いて生成されてもよい。
図7は、本発明が具現化され得る例示的訓練プロセス700を示すフロー図である。プロセス700が、LR及びHRデータセットの合致するペアを含むデータの訓練コーパス、例えば、本明細書で説明されるLR及びHR分光計から取得されるスペクトルデータにアクセスすると推測される。訓練コーパスは、訓練ボリューム705a、検証ボリューム705b、及びテストボリューム705cに適当にセグメント化又は区画されてもよい。コーパスを訓練ボリューム、検証ボリューム、及びテストボリュームに区画することは、機械学習分野において既知のそのような技術に従い得る。実際に、プロセス700は、本発明の実施形態において用いられ得る多くのモデル構築/訓練パラダイムのうちの1つをフロー概略形式で表す。以下の説明では、モデルパラダイムは、図2を参照して上述したものを指す。図7の動作及びデータフローの順序は、簡潔な説明のためであり、他の動作及びデータフローも、モデル構築/訓練を実施するために用いられ得ると理解されたい。
図7に示されるように、訓練ボリューム705aは、元のLRデータセット707aを含んでもよく、元のLRデータセット707aは、低分解能データ取得機器によって取得され得る。動作710において、LRデータセット707aは、ANNに従って処理されて、HR出力データセット715を生成する。動作720において、高分解能データ取得機器によって取得されるか、高分解能データ生成器によってシミュレートされる、HR出力データセット715と訓練データセット709aとの間の差異が判断される。動作725において、目的関数を最大化又は最小化するために、ANNパラメータ(重み、バイアス)が判断される。動作730において、判断されたANNパラメータが、ANNを通して逆伝播される。
訓練ボリュームが使い果たされると、プロセス700は、動作735に遷移し得る。それによって、モデルがデータに過剰適合しているか、又は所与の仕様に汎化しているかが判断される。この目的のために、元のLRデータセット707b及びHR検証セット709bを含む検証ボリューム705bは、訓練ボリューム705aを用いて上述したものと類似の方式で訓練済みモデルに適用され得る。今回は、しかしながら、その予測効率ではなく、いわゆるハイパーパラメータを通して表される、モデルのアーキテクチャに集中する。したがって、モデルが十分に汎化されないことが動作735において分かると、その1つ又は複数のハイパーパラメータが、動作740によって修正され得る。例えば、図2を参照して上述したモデルの残差ブロックが除去されてもよく、又は各残差ブロック内の動作ブロックの順序が改訂されてもよい、などである。当業者は、本発明の実施形態において過剰適合を修正するために適用され得る多くの技術を認識する。
動作735において、モデルが十分に汎化していると判断される場合、プロセス700は、動作750に遷移してもよく、それによって、訓練済みモデルによって性能基準が満たされるかどうかが判断される。この目的のために、元のLRデータセット707c及びHRテストセット709cを含むテストボリューム705cは、訓練ボリューム705a及び検証ボリューム705bを用いて上述したものと類似の方式で訓練済みモデルに適用され得る。今回は、しかしながら、正確性、即ちモデルから予測されるHRデータセットが観測の実際の測定によって生成される真のHRデータセットにどのくらい近いか、及び感度、即ちそのように正確に識別される(モデルを通した)HR予測における特徴の比率についての特定の性能基準によって測定される、モデルの性能に対して集中する。そのような基準が満たされる場合、プロセス700は、終了し得る。そうでなければ、プロセス700は、動作740に遷移してもよく、それによって、ANNハイパーパラメータが、再度修正される。プロセス700は、次いで動作710に遷移してもよく、その時点から継続する。
図8は、本発明が具現化され得る例示的生成プロセス800を示すフロー図である。生成プロセス800は、システムが生成モードにあるときに実行され得る。動作810において、LRデータセット805は、対応するHR出力データセット815を予測するために用いられ、HR出力データセット815は、上述したANNの出力である。プロセス800は、次いで動作820に遷移してもよく、それによって、プロセス状態は、HR出力データセット815から判断される。動作825において判断されるように、目標プロセス状態が達成された場合、生成プロセス800は終了する。目標プロセス状態が達成されていない場合、プロセス800は、新たに取得されたLRデータを伴って動作810に遷移してもよく、その時点から継続する。
一実施形態は、ニューラルネットワークを訓練して、測定された低分解能データから高分解能データを提供するための方法を含む。訓練方法は、半導体プロセス又は処理チャンパ内の半導体基板上の特徴に関するデータセットを有形コンピュータ可読メモリに記憶することを含み得る。データセットは、プロセス又は特徴を表す粗い(低分解能)データセット、及びプロセス又は特徴を表す詳細な(高分解能)データセットを含んでもよく、詳細なデータセットは、粗いデータセットとは異なっている。一実施例では、粗いデータセットと詳細なデータセットとの間の差異は、プロセス又は特徴の少なくとも1つの特性についてのより広い範囲又はより狭い範囲の情報を含む。コンピュータ処理デバイスは、粗いデータセット及び詳細なデータセットのインスタンス間に訓練関係を割り当てるために用いられ、ニューラルネットワーク技術は、訓練関係、及び粗いデータセットと詳細なデータセットとの間の差異に少なくとも一部基づいて、粗いデータセットを詳細なデータセットに相関させるモデルを生成するために用いられる。一実施例では、詳細なデータセットは、少なくとも1つの特性について、粗いデータセットと比較してより高分解能のデータを含む。プロセスの特性は、プロセスの化学組成、プロセスの温度、プロセスの密度、及び/又はプロセスに関連付けられる電気エネルギーであってもよい。プロセスの特性は、化学組成、温度、密度、及び/又は電気エネルギーの分布又はプロファイルを含み得る。特徴の特性は、厚さ、幅、高さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルなどの測定された物理的特徴を含み得る。
データセットは、画像、スペクトル表現、又はプロセス若しくは特徴のモジュールシミュレーションを含み得る。一実施形態では、データセットは、画像、スペクトル表現、及び/又は特徴若しくはプロセスのシミュレーションに少なくとも一部基づく。ニューラルネットワーク技術は、畳み込みニューラルネットワーク技術に少なくとも一部基づいてもよく、データセットが、分光計によって生成されてもよい。いくつかの実施形態では、粗いデータセットは、光又はエネルギーが粗い分光計に入ることを可能にする粗いスリットを有する粗い分光計によって生成され、詳細なデータセットは、光又はエネルギーが詳細な分光計に入ることを可能にする詳細なスリットを含む詳細な分光計によって生成される。その場合に、詳細なスリットは、粗いスリットの対応する開口部又は間隙より小さな開口部又は間隙を含む。データセットは、電荷結合デバイスカメラなどの画像取込デバイスによっても生成され得る。代替として、画像取込デバイスは、顕微鏡及びカメラを含み得る。
訓練関係の割り当ては、粗いデータセット及び詳細なデータセットの収集の間に存在する共通要素に少なくとも一部基づく。共通要素は、半導体プロセスのプロセス条件又は半導体基板上の特徴の特徴タイプである。プロセス条件は、温度、圧力、化学組成、ガス流量、印加電力、印加電圧、回転速度、変換速度、液体分配速度、液体分配量を含み得る。特徴タイプは、基板内のパターン又は基板上のパターンを含み得る。いくつかの実施例では、特徴タイプは、厚さ、幅、高さ、長さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルを含む。特徴タイプは、特徴の臨界寸法、特徴の表面積、特徴の露出した表面積、特徴間の重なり、特徴間の距離、特徴間の向き、及び/又は特徴間のアライメントも含み得る。方法の訓練関係の割り当ては、プロセス中に収集された又は特徴上の、単一の粗いデータセット及び単一の詳細なデータセットをペアにすることを含み得る。
一実施形態は、半導体プロセス又は半導体基板上の特徴に関するデータセットがその間有形コンピュータ可読メモリに記憶されている方法を含む。データセットは、プロセス又は特徴を表している粗い(低分解能)データセットを含み得る。粗いデータセットは、プロセス又は特徴に関する低分解能データセットと高分解能データセットとの間の差異に少なくとも一部基づいて、詳細な分解能モデルに適用される。プロセス又は特徴を表している詳細な(高分解能)データセットは、ニューラルネットワーク技術を用いて生成され、詳細なデータセットは、粗いデータセットとは異なり、その場合に、差異は、プロセス又は特徴の少なくとも1つの特性についてのより多くの量の情報に少なくとも一部基づく。ニューラルネットワーク技術は、畳み込みニューラルネットワーク技術に少なくとも一部基づき得る。詳細なデータセットは、少なくとも1つの特性について、粗いデータセットと比較してより高分解能のデータを含み得る。特性は、プロセスの化学組成、プロセスの温度、プロセスの密度、及び/若しくはプロセスに関連する電気エネルギー、その化学組成、温度、密度、及び/若しくは電気エネルギーの分布、均一性、若しくはプロファイル、厚さ、幅、高さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、及び/又は特徴の幾何プロファイルを含み得る。
データセットは、特徴又はプロセスの画像又はスペクトル表現に少なくとも一部基づき得る、プロセス又は特徴の画像又はスペクトル表現を含み得る。データセットは、分光計によって生成されてもよく、ある実施形態では、粗いデータセットは、光又はエネルギーが粗い分光計に入ることを可能にする粗いスリットを含む粗い分光計によって生成され、詳細なデータセットは、光又はエネルギーが詳細な分光計に入ることを可能にする詳細なスリットを含む詳細な分光計によって生成される。詳細なスリットは、粗いスリットの対応する開口部又は間隙よりも大きな開口部又は間隙を有し得る。
データセットは、顕微鏡の有無にかかわらず電荷結合デバイスカメラを含むものなどの画像取込デバイスによっても生成され得る。
訓練関係割り当ては、粗いデータセット及び詳細なデータセットの収集中に存在する共通要素に少なくとも一部基づいてもよく、その場合に、共通要素は、半導体プロセスのプロセス条件、半導体基板上の特徴の特徴タイプ、温度、圧力、化学組成、ガス流量、印加電力、印加電圧、回転速度、変換速度、液体分配測度、液体分配量であってもよく、整合プロセスチャンバへ調整値を送信することをさらに含む。
特徴タイプは、基板内のパターン、基板上のパターン、厚さ、幅、高さ、長さ、向き、粗さ、平坦度、角度、カバレッジ、アライメント、特徴の幾何プロファイル、特徴の臨界寸法、特徴の表面積、特徴の露出した表面積、特徴間の重なり、特徴間の距離、特徴間の向き、及び/又は特徴間のアライメントであってもよい。
メモリ回路120は、任意の量の任意の種類の従来の又は他のメモリ又は記憶デバイスによって実施されてもよく、揮発性(例えば、RAM、キャッシュ、フラッシュなど)又は不揮発性(例えば、ROM、ハードディスク、光学ストレージなど)であってもよく、任意の適当な記憶容量を含んでもよい。システム内のデータ(例えば、画像、スペクトル、モデルパラメータなど)は、メモリ回路120の記憶領域に記憶される。
プロセッサ回路130は、例えば、マイクロプロセッサ、マイクロコントローラ、システムオンチップ(SOC)、又は他の固定若しくはプログラマブルロジックなどの、メモリに記憶されたプロセスロジックのための命令を実行する、1つ又は複数のデータ処理デバイスであってもよい。プロセッサは、それ自体がマルチプロセッサであってもよく、複数のCPU、複数のコア、複数のプロセッサを含む複数のダイなどを有してもよい。加えて、プロセッサ回路130は、専用機械学習回路を含んでもよい。ディスプレイレンダリングハードウェアは、プロセッサ回路の一部であってもよく、又は、例えば、別個のグラフィックプロセッサユニット(GPU)であってもよい。
ユーザインタフェース回路140は、ユーザに情報を表示することが可能な任意の適当なディスプレイ、スクリーン、又はモニタ、例えば、タブレットのスクリーン又はコンピュータワークステーションに取り付けられたモニタを含んでもよい。ユーザインタフェース回路140は、入力デバイスを含んでもよく、入力デバイスは、任意の適当な入力デバイス、例えば、キーボード、マウス、トラックパッド、タッチ入力タブレット、タッチスクリーン、カメラ、マイクロフォン、リモートコントロール、音声合成機器などを含んでもよい。出力デバイスは、例えば、スピーカ、ヘッドフォン、音声出力ポートなどを含んでもよい。
当業者によって理解されるように、本発明の態様は、システム、方法、又はコンピュータプログラム製品として具現化されてもよい。したがって、本発明の態様は、完全なハードウェア実施形態、完全なソフトウェア実施形態(ファームウェア、常駐ソフトウェア、マイクロコードなどを含む)、又は本明細書で「回路」、「モジュール」、若しくは「システム」と全て概して呼ばれ得るソフトウェア及びハードウェア態様を組み合わせる実施形態の形式をとってもよい。さらに、本発明の態様は、その上で具現化されるコンピュータ可読プログラムコードを有する、1つ又は複数のコンピュータ可読媒体において具現化されるコンピュータプログラム製品の形式をとってもよい。
1つ又は複数のコンピュータ可読媒体の任意の組み合わせが、利用されてもよい。コンピュータ可読媒体は、コンピュータ可読信号媒体又はコンピュータ可読記憶媒体であってもよい。コンピュータ可読媒体は、例えば、電子、磁気、光学、電磁気、赤外線、若しくは半導体のシステム、装置、若しくはデバイス、又は前述したものの任意の適当な組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより詳細な実施例(非網羅的リスト)は、1つ若しくは複数の配線を有する電気接続、ポータブルコンピュータディスケット、ハードディスク、ソリッドステートディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM若しくはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、相変化メモリ記憶デバイス、又は前述したものの任意の適当な組み合わせを含む。本文書の文脈において、コンピュータ可読記憶媒体は、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して使用するプログラムを含み、又は記憶し得る任意の有形媒体であってもよい。
コンピュータ可読信号媒体は、例えば、ベースバンドにおいて、又は搬送波の一部として、そこに具現化されたコンピュータ可読プログラムコードを有する伝搬データ信号を含んでもよい。そのような伝搬信号は、電磁気、光学、又はそれらの任意の適当な組み合わせを含むがこれらに限定されない、多様な形式のいずれかをとってもよい。コンピュータ可読信号媒体は、コンピュータ可読記憶媒体ではなく、命令実行システム、装置、若しくはデバイスによって、又は命令実行システム、装置、若しくはデバイスに関連して使用するプログラムを通信し、伝搬し、又は移送し得る任意のコンピュータ可読媒体であってもよい。コンピュータ可読媒体上に具現化されるプログラムコードは、無線、有線配線、光ファイバケーブル、RFなどを含むがこれらに限定されない任意の適当な媒体、又は前述したものの任意の適当な組み合わせを用いて送信されてもよい。
本発明の態様のための動作を実行するコンピュータプログラムコードは、1つ又は複数のプログラミング言語、例えば、Java、Python、Smalltalk、C++などのオブジェクト指向プログラミング言語、又は「C」プログラミング言語若しくは類似のプログラミング言語などの従来の手続型プログラミング言語の任意の組み合わせで書かれてもよい。プログラムコードは、ユーザのコンピュータ上で完全に、ユーザのコンピュータ上で部分的に、スタンドアロンソフトウェアパッケージとして、ユーザのコンピュータ上で部分的に且つリモートコンピュータで部分的に、又はリモートコンピュータ若しくはサーバ上で完全に、実行してもよい。後者のシナリオでは、リモートコンピュータは、ローカルエリアネットワーク(LAN)、若しくはワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを通してユーザのコンピュータに接続されてもよく、又は、接続は、(例えば、インターネットサービスプロバイダを使用してインターネットを通して)外部コンピュータに対して行われてもよい。
システム100の様々な機能は、任意の量のソフトウェアモジュール又はユニット、処理又はコンピュータシステム及び/又は回路の間で、任意の方式で分散されてもよく、その場合に、コンピュータ又は処理システムは、互いにローカルに又はリモートに配置されてもよく、任意の適当な通信媒体(例えば、LAN、WAN、イントラネット、インターネット、ハードウェア、モデム接続、無線など)を介して通信してもよい。
本発明の態様は、発明の実施形態による、方法、装置(システム)、及びコンピュータプログラム製品のフローチャート図及び/又はブロック図を参照して説明される。命令が、フローチャート及び/又はブロック図のブロックに指定された機能/動作を実施するための手段を生成するように、フローチャート図及び/又はブロック図の各ブロック、並びにフローチャート図及び/又はブロック図のブロックの組み合わせが、コンピュータプログラム命令によって実施され、且つプロセッサ回路130によって実行されて、機械を生成し得ると理解されたい。
図面中のフローチャート及びブロック図は、本発明の様々な実施形態によるシステム、方法、及びコンピュータプログラム製品の考え得る実施態様のアーキテクチャ、機能性、及び動作を示している。この点に関して、フローチャート又はブロック図内の各ブロックは、指定された論理機能を実施するための1つ又は複数の実行可能命令を含む、モジュール、セグメント、又はコードの一部を表してもよい。いくつかの代替的な実施態様では、ブロック内に記載された機能は、図中に記載された順序ではない順序で発生してもよいことにも留意されたい。例えば、連続して示される2つのブロックが、実際には、実質的に同時に実行されてもよく、又はブロックが、関係する機能性次第で逆の順序で実行されることがあってもよい。ブロック図及び/又はフローチャート図の各ブロック、並びにブロック図及び/又はフローチャート図のブロックの組み合わせが、指定された機能若しくは動作を実行する専用ハードウェアベースシステム、又は専用ハードウェア及びコンピュータ命令の組み合わせによって実施され得ることにも留意されたい。
本明細書で使用される専門用語は、特定の実施形態のみを説明する目的のためであり、発明を限定することを意図するものではない。本明細書で使用される、単数形「a」、「an」、及び「the」は、文脈が明らかにそうでないことを示していない限り、複数形も同様に含むことを意図するものである。「備える(comprises)」及び/又は「備えている(comprising)」という用語は、本明細書で使用されるとき、述べられた特徴、整数、ステップ、動作、要素、及び/又はコンポーネントの存在を示しているが、1つ又は複数の特徴、整数、ステップ、動作、要素、コンポーネント、及び/又はそれらの集合の存在又は追加を排除するものではないと、さらに理解されたい。
下記の特許請求の範囲におけるいずれか及び全てのミーンズプラスファンクション又はステッププラスファンクション要素の対応する構造、材料、動作、及び均等物は、他の特許請求された要素と組み合わせて機能を実行するための任意の構造、材料、又は動作を具体的に請求されるものとして含むことを意図するものである。
上記説明は、本発明の概念の考え得る実施態様を説明することを意図するものであり、限定するものではない。多くの変形、修正、及び代替が、本開示を検討すれば当業者には明らかとなる。例えば、図示され説明されたものと均等なコンポーネントが、したがって代用されてもよく、個別に説明された要素及び方法が、結合されてもよく、個別として説明された要素が、多くのコンポーネントにわたって分散されてもよい。したがって、本発明の範囲は、上記説明を参照してではなく、添付の特許請求の範囲を均等物の全ての範囲と共に参照して判断されるべきである。

Claims (20)

  1. 装置であって、
    半導体製造プロセスの状態又は製造される半導体構造を示すデータセットであって、前記データセット内の特徴が、データ分解能によって制限される範囲まで識別可能である、前記データセット、及び
    モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含む機械学習モデル
    を記憶するメモリ回路と、
    前記メモリ回路に通信可能に連結され、出力データセット内の特徴が前記データセットの前記データ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能であるように、前記機械学習モデルに従って前記データセットから前記出力データセットを生成する、プロセッサ回路と、
    を備える、装置。
  2. 前記機械学習モデルが、前記データセットが前記プロセッサ回路によって順次適用される機能ブロックを含み、前記機能ブロックのそれぞれが、前の機能ブロックよりも前記データセットの次元数を増加させる、請求項1に記載の装置。
  3. 前記機械学習モデルが、ピラミッド状残差畳み込みニューラルネットワークである、請求項2に記載の装置。
  4. 各機能ブロックが、前記パラメータのうちの対応するパラメータを前記データセットに基づく特徴マップと共に畳み込む、複数の畳み込み層を含む、請求項3に記載の装置。
  5. 各機能ブロックが、活性化関数に従って、畳み込まれた特徴マップの通過を前記機能ブロック内の後続層に制限する、複数の活性化層を含む、請求項4に記載の装置。
  6. 前記活性化関数が、正規化線形ユニット活性化関数である、請求項5に記載の装置。
  7. 前記半導体製造プロセスの前記状態を観測し、結果に従って前記データセットを生成する、データ取得機器をさらに備える、請求項1に記載の装置。
  8. 前記データ取得機器が、前記データセットとして電磁スペクトルデータを生成する分光計である、請求項7に記載の装置。
  9. 前記プロセッサ回路が、前記出力データセットに基づいて前記半導体製造プロセスを制御するプロセスコントローラを実施する、請求項7に記載の装置。
  10. 前記メモリ回路が、前記データ分解能より大きい訓練分解能によって制限される範囲まで識別可能な特徴を含む訓練データセットを記憶し、
    前記プロセッサ回路が、訓練プロセスの開始に応答して、前記出力データセットを前記訓練データセットから区別し、前記区別に基づいて目的関数を最小化又は最大化するように前記パラメータを修正する、
    請求項1に記載の装置。
  11. 前記プロセッサ回路が、前記半導体製造プロセスの前記状態を観測し、結果に従って前記データセットを生成するデータ取得機器の光学特性に従って前記訓練データセットを生成するデータ生成器を実施する、請求項10に記載の装置。
  12. 前記訓練データセットが、前記半導体製造プロセスの前記状態を観測し、結果に従って前記データセットを生成する分光計から取得されるスペクトルデータを含む、請求項10に記載の装置。
  13. 前記分光計が、入口スリット及び検出器アレイを含み、前記訓練データが、前記入口スリットと前記検出器アレイとの間の距離が変化する間に取得された前記スペクトルデータを含む、請求項12に記載の装置。
  14. 半導体製造のための材料を処理するためのシステムであって、
    材料が含まれるチャンバであって、前記半導体製造処理がモニタリングされるポートを含む、前記チャンバと、
    前記チャンバの前記ポートに通信可能に連結され、前記半導体製造プロセスの状態を示すデータセットを生成するデータ取得機器であって、前記データセット内の特徴が、前記データ取得機器のデータ分解能によって制限される範囲まで識別可能である、前記データ取得機器と、
    前記データ取得機器に通信可能に連結され、出力データセット内の特徴が前記データセットの前記データ分解能よりも微細な出力データ分解能によって制限される範囲まで識別可能であるように、機械学習モデルに従って前記データセットから前記出力データセットを生成するプロセッサ回路であって、前記機械学習モデルが、モデル訓練プロセスによって制約されるように割り当てられたそれぞれの値を有するパラメータを含む、前記プロセッサ回路と、
    を備える、システム。
  15. 前記機械学習モデルが、前記データセットが前記プロセッサ回路によって順次適用される機能ブロックを含み、前記機能ブロックのそれぞれが、前の機能ブロックよりも前記データセットの次元数を増加させる、請求項14に記載のシステム。
  16. 前記機械学習モデルが、ピラミッド状残差畳み込みニューラルネットワークである、請求項15に記載のシステム。
  17. 前記データ取得機器が、前記チャンバの前記ポートに光学的に連結された分光計であり、前記データセットとしてスペクトルを生成し、他の前記データセットが、前記分光計によって生成されるよりも微細な分解能を有する高分解能スペクトルであり、前記分光計が、前記機械学習モデルによって前記スペクトルを処理することを経て減少しない帯域幅及び光学スループットにより特徴付けられる物理設計を有する、請求項14に記載のシステム。
  18. 前記分光計が、前記帯域幅及び前記光学スループットを定義する入口スリット及び検出器アレイを含む、請求項17に記載の装置。
  19. 前記プロセッサ回路が、前記出力データセットに基づいて前記半導体製造プロセスを制御するプロセスコントローラを実施する、請求項14に記載のシステム。
  20. 前記プロセスコントローラが、前記高分解能スペクトルを分析して前記半導体製造プロセスの前記状態を判断し、強制的に異なる状態にするように前記半導体製造プロセスを修正する制御信号を生成する、請求項14に記載のシステム。
JP2021555451A 2019-03-15 2020-03-13 機械学習を用いた半導体製造データ取得機器における拡張された分解能 Pending JP2022525197A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962819115P 2019-03-15 2019-03-15
US62/819,115 2019-03-15
PCT/US2020/022746 WO2020190766A1 (en) 2019-03-15 2020-03-13 Enhanced resolution in semiconductor fabrication data acquisition instruments using machine learning

Publications (1)

Publication Number Publication Date
JP2022525197A true JP2022525197A (ja) 2022-05-11

Family

ID=72424185

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021555451A Pending JP2022525197A (ja) 2019-03-15 2020-03-13 機械学習を用いた半導体製造データ取得機器における拡張された分解能

Country Status (7)

Country Link
US (1) US11763161B2 (ja)
JP (1) JP2022525197A (ja)
KR (1) KR20210128490A (ja)
CN (1) CN113574561A (ja)
SG (1) SG11202108898WA (ja)
TW (1) TW202105494A (ja)
WO (1) WO2020190766A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070233A1 (ja) * 2022-09-26 2024-04-04 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210061597A (ko) * 2019-11-20 2021-05-28 삼성전자주식회사 참조 데이터를 이용한 레이더 데이터 처리 장치 및 방법
US20230053776A1 (en) * 2021-08-19 2023-02-23 Mediatek Singapore Pte. Ltd. Region-of-interest (roi) guided sampling for ai super resolution transfer learning feature adaptation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5450205A (en) 1993-05-28 1995-09-12 Massachusetts Institute Of Technology Apparatus and method for real-time measurement of thin film layer thickness and changes thereof
US7149262B1 (en) * 2000-07-06 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and apparatus for enhancing data resolution
US6885467B2 (en) * 2002-10-28 2005-04-26 Tevet Process Control Technologies Ltd. Method and apparatus for thickness decomposition of complicated layer structures
US8108328B2 (en) * 2008-07-17 2012-01-31 Tokyo Electron Limited Neural network based hermite interpolator for scatterometry parameter estimation
US9151670B1 (en) * 2013-03-15 2015-10-06 Wavefront Research, Inc. Dynamic system resolution
US10055434B2 (en) * 2013-10-16 2018-08-21 University Of Tennessee Research Foundation Method and apparatus for providing random selection and long-term potentiation and depression in an artificial network
US9784619B2 (en) * 2015-10-13 2017-10-10 Beijing Information Science & Technology University Fiber grating demodulation system for enhancing spectral resolution of detector array
US10438825B2 (en) 2016-08-29 2019-10-08 Kla-Tencor Corporation Spectral reflectometry for in-situ process monitoring and control
US10365212B2 (en) * 2016-11-14 2019-07-30 Verity Instruments, Inc. System and method for calibration of optical signals in semiconductor process systems
KR101879207B1 (ko) * 2016-11-22 2018-07-17 주식회사 루닛 약한 지도 학습 방식의 객체 인식 방법 및 장치
US10386232B2 (en) * 2017-12-15 2019-08-20 Horiba Instruments Incorporated Compact spectroscopic optical instrument
KR20200030806A (ko) * 2018-09-13 2020-03-23 삼성전자주식회사 반도체 제조 공정을 모니터링하기 위해 인공 신경망에 기초하는 이미지 변환 모델을 포함하는 비일시적 컴퓨터 판독가능 매체 그리고 반도체 웨이퍼의 이미지를 변환하는 방법
KR20200072302A (ko) * 2018-12-12 2020-06-22 삼성전자주식회사 두께 예측 네트워크 학습 방법, 반도체 소자 제조 방법 및 반도체 물질 퇴적 장비

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070233A1 (ja) * 2022-09-26 2024-04-04 株式会社Screenホールディングス 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法

Also Published As

Publication number Publication date
TW202105494A (zh) 2021-02-01
SG11202108898WA (en) 2021-09-29
KR20210128490A (ko) 2021-10-26
CN113574561A (zh) 2021-10-29
US11763161B2 (en) 2023-09-19
US20200292388A1 (en) 2020-09-17
WO2020190766A1 (en) 2020-09-24

Similar Documents

Publication Publication Date Title
US10062157B2 (en) Compressive sensing for metrology
JP6758418B2 (ja) 半導体用途のための、入力画像からのシミュレーション画像の生成
JP7122386B2 (ja) 低解像度画像における欠陥検出のためのニューラルネットワークのトレーニング
TWI760309B (zh) 用於校正計量工具之系統、方法及計算機程式產品
JP6893514B2 (ja) ハイブリッドインスペクタ
JP2022525197A (ja) 機械学習を用いた半導体製造データ取得機器における拡張された分解能
KR102213730B1 (ko) 반도체 애플리케이션을 위한 신경망 및 순방향 물리적 모델을 포함하는 방법 및 시스템
US11921433B2 (en) Optical metrology in machine learning to characterize features
US20170060001A1 (en) Verification metrology targets and their design
JP2021500740A (ja) 大オフセットダイ・ダイ検査用複数段階画像整列方法
TWI764339B (zh) 用參數化模型預測製程資訊之方法和系統
TW201930858A (zh) 透過先進機器學習技術之量測精確度之自動最佳化
JP2019047100A (ja) 計算機、処理の制御パラメータの決定方法、代用試料、計測システム、及び計測方法
CN108291868A (zh) 用于快速自动确定用于高效计量的信号的系统、方法及计算机程序产品
Bai et al. All-optical image classification through unknown random diffusers using a single-pixel diffractive network
JP7201662B2 (ja) 分光計量を用いたパターン化膜スタックのバンドギャップ計測
TWI631636B (zh) 以模型爲基礎之量測及一製程模型的整合使用
WO2021140515A1 (en) Detecting outliers and anomalies for ocd metrology machine learning
US11676263B2 (en) Extreme ultraviolet (EUV) collector inspection apparatus and method
TWI807563B (zh) 用於製造程序參數估計之模組自動編碼器模型
KR102567843B1 (ko) 다층 박막 구조물의 두께 분석 시스템 및 방법
EP4075340A1 (en) Modular autoencoder model for manufacturing process parameter estimation
EP4075339A1 (en) Modular autoencoder model for manufacturing process parameter estimation
EP4075341A1 (en) Modular autoencoder model for manufacturing process parameter estimation
TW202138911A (zh) 整合式多工具網線檢查

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240416