WO2019198143A1 - 加工レシピ生成装置 - Google Patents

加工レシピ生成装置 Download PDF

Info

Publication number
WO2019198143A1
WO2019198143A1 PCT/JP2018/015042 JP2018015042W WO2019198143A1 WO 2019198143 A1 WO2019198143 A1 WO 2019198143A1 JP 2018015042 W JP2018015042 W JP 2018015042W WO 2019198143 A1 WO2019198143 A1 WO 2019198143A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
recipe
unit
processing recipe
processing
Prior art date
Application number
PCT/JP2018/015042
Other languages
English (en)
French (fr)
Inventor
昌義 石川
大森 健史
百科 中田
Original Assignee
株式会社日立製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社日立製作所 filed Critical 株式会社日立製作所
Priority to JP2020512966A priority Critical patent/JP6995191B2/ja
Priority to US17/043,815 priority patent/US11393084B2/en
Priority to PCT/JP2018/015042 priority patent/WO2019198143A1/ja
Priority to TW108107370A priority patent/TWI701613B/zh
Publication of WO2019198143A1 publication Critical patent/WO2019198143A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/20Sequence of activities consisting of a plurality of measurements, corrections, marking or sorting steps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • G06T2207/10061Microscopic image from scanning electron microscope
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L22/00Testing or measuring during manufacture or treatment; Reliability measurements, i.e. testing of parts without further processing to modify the parts as such; Structural arrangements therefor
    • H01L22/10Measuring as part of the manufacturing process
    • H01L22/12Measuring as part of the manufacturing process for structural parameters, e.g. thickness, line width, refractive index, temperature, warp, bond strength, defects, optical inspection, electrical measurement of structural dimensions, metallurgic measurement of diffusions

Abstract

本発明は、加工装置の撮像条件によって検査画像が影響を受けて変動する場合であっても、検査画像から加工レシピを自動生成することができる技術を提供することを目的とする。本発明に係る加工レシピ生成装置は、検査画像の撮像条件に依拠する成分を減少させた変換画像を生成し、前記変換画像と同じ変換条件を用いて生成した目標画像を用いて、加工レシピを生成する(図2参照)。

Description

加工レシピ生成装置
 本発明は、加工装置が対象物を加工する際における動作条件を記述した加工レシピを生成する技術に関する。
 半導体の回路や製造装置の複雑化に伴い、半導体を加工するためのパラメータの調整が難しくなってきている。このパラメータは加工後の形状を決めるものであり、レシピと呼ばれる。従来は、あらかじめ決められた部位の寸法を専門家が計測し、計測した寸法が目標値に近くなるようなレシピを探索するのが一般的である。しかしながら、加工工程の複雑化により、寸法を計測する部位の決定が難しくなってきている。そのため、寸法を計測する部位を専門家が決定することに依拠せずに、検査画像から所望の加工形状を達成するレシピを直接生成する方法が求められている。
 下記特許文献1は、CD(Critical Dimension)シフト量を目標値にあわせるように酸素流量または圧力を調整する方法について記載している。 
特開2004-119753号公報
 検査画像は、様々なノイズの影響を受けて写り方が変化する。例えば通常の画像であれば光の当たり方によって画像が変化する。半導体検査に用いられる走査型電子顕微鏡(Scanning Electron Microscope:SEM)の場合は、検査対象の帯電の具合や加速電圧などの撮像条件によって、検査画像が大きく変化する。そのため、目標形状どおりに加工できているか否かを評価する際に、検査画像そのものを用いてこれを評価することが難しい。したがって、検査画像を用いて加工レシピを自動的に生成することは困難であった。
 上記特許文献1においては、特定部位の寸法値に応じて加工レシピを調整することとしている。しかし検査画像そのものを用いてレシピを調整することについては検討されておらず、さらには検査画像そのものが加工条件または撮像条件に応じて変化することについても検討されていない。 
 本発明は、上記のような課題に鑑みてなされたものであり、加工装置の撮像条件によって検査画像が影響を受けて変動する場合であっても、検査画像から加工レシピを自動生成することができる技術を提供することを目的とする。
 本発明に係る加工レシピ生成装置は、検査画像の撮像条件に依拠する成分を減少させた変換画像を生成し、前記変換画像と同じ変換条件を用いて生成した目標画像を用いて、加工レシピを生成する。
 本発明に係る加工レシピ生成装置によれば、専門家が計測位置を決定してその位置の寸法を計測する工程を実施することなく、所望の構造を達成する加工レシピを自動的に生成することができる。
加工レシピ生成装置100が加工レシピを自動生成する手順の概要を説明する模式図である。 加工レシピ生成装置100の構成図である。 レシピ-画像記憶部201が格納するデータの構成図である。 画像条件設定部203の詳細構成図である。 画像条件設定部203が提供するインターフェースの1例である。 検査画像変換部202の詳細構成図である。 学習部204が実施する学習過程を示す模式図である。 学習モデル記憶部205が格納する情報の詳細構成図である。 学習部204が学習を実施する手順を説明するフローチャートである。 目標形状入力部206の構成図である。 目標形状入力部206の画面例である。 目標画像生成部207の詳細構成図である。 レシピ評価指標の概要図である。 レシピ生成部208がレシピを生成する手順を説明するフローチャートである。
 図1は、本発明に係る加工レシピ生成装置100が加工レシピを自動生成する手順の概要を説明する模式図である。加工レシピ生成装置100は、レシピ101を入力として受け取る。構造予測部102は、レシピ101によって加工される形状の予測結果を表す予測画像103を出力する。レシピ修正部105は、予測画像103を目標画像104に近づけるようにレシピ101を修正する。これを終了条件に達するまで繰り返しすることによりレシピ101を徐々に修正し、目標画像104に近い予測画像103を出力するレシピ101を生成する。予測画像103i、目標画像104iはそれぞれ予測画像103、目標画像104の1例である。
 従来において加工レシピを生成する際には、専門家が検査画像上の特定位置を指定し、その部位の寸法を計測し、寸法値を目標値に合わせるようにレシピを生成している。しかしながらこのような従来手法は、計測位置の指定や計測そのものについて専門的なノウハウが必要であるので、いずれの作業についても専門家が必要であることが課題であった。その他、以下のような課題もある:(a)同じ個所を計測したとしても、計測者ごとに計測結果が異なる、(b)寸法を計測する位置を変更すると、過去データ全ての計測をやり直す必要がある、(c)計測していない箇所に関してはレシピ生成の際に考慮されない、(d)形状の曲率などのように計測が難しい特徴量が存在する。
 本発明は、画像化した目標構造である目標画像104に近い構造を達成するレシピ101を生成することにより、特定箇所の寸法を計測することを不要とし、従来手法の課題を解決する。
 目標画像104を達成するレシピ101は無数に存在するが、レシピ101が決まると生成される構造は決まる。したがって、目標画像104からレシピ101を直接決定することは難しいが、レシピ101から構造を予測することは比較的容易である。よって本発明においては、レシピ101を入力として予測画像103を出力する構造予測部102を用いることとした。
 検査画像は、様々な条件に応じて画像の映り方が変化する。例えば通常の画像であれば光の当たり方によって画像が変化する。半導体検査に用いられる走査型電子顕微鏡(SEM)の場合は、検査対象の帯電の具合や加速電圧などの撮像条件によって、検査画像が大きく変化する。また、試料の回転や並進などによっても画像は変化する。そのため、目標とする構造が決まっていても目標画像104は一意に決まらない。したがって、予測画像103と目標画像104として検査画像をそのまま用いたとしても、良いレシピを生成することは難しい。
 本発明は、このような課題を解決するため、検査画像を一度変換し、変換後検査画像を用いてレシピを生成することとした。このような変換により、撮像条件が変化することによって検査画像が変動したとしても、その変動の影響を抑制し、検査画像の変動に対してロバストにレシピを生成することができる。撮像条件の変動による影響を抑制する変換後検査画像の例については後述する。
 図2は、加工レシピ生成装置100の構成図である。加工レシピ生成装置100は、レシピ-画像記憶部201、検査画像変換部202、画像条件設定部203、学習部204、学習モデル記憶部205、目標形状入力部206、目標画像生成部207、レシピ生成部208、加工装置209、検査装置210を備える。図1で示した概要は、レシピ生成部208が実施する処理である。
 検査画像変換部202は、画像条件設定部203によって設定された変換条件にしたがって、レシピ-画像記憶部201に格納された検査画像を変換する。学習部204は、入力されたレシピと変換後検査画像を用いて、レシピから変換後検査画像を予測するモデルを学習する。ここでいうモデルとは構造予測部102のことである。学習したモデルは学習モデル記憶部205に格納される。レシピ生成部208は、学習したモデルと目標形状入力部206に対して入力された情報を用いて、目標画像生成部207が生成した目標画像に近い構造を達成するレシピを生成する。加工装置209は、生成されたレシピを用いて試料を加工する。検査装置210は、加工された構造体を検査し、その検査結果を表す検査画像(例えばSEM観察像)を出力する。レシピ生成部208が生成したレシピと検査装置210が出力された検査画像のペアは、新しいデータとしてレシピ-画像記憶部201に格納される。加工された構造体が目標形状に対して設定された指標を達成するまで上述のサイクルを繰り返す。
 蓄積されたレシピと変換後検査画像との間の関係を学習し、目標形状に近い構造を予測するレシピを生成し、生成されたレシピを実際に加工装置209および検査装置210で評価することにより、少ないサイクルで、目標形状に近い構造を達成するレシピを検査画像から生成することができる。
 図3は、レシピ-画像記憶部201が格納するデータの構成図である。レシピ-画像記憶部201は、番号情報301、加工装置情報302、加工プロセス情報303、レシピ情報304、検査画像情報305、撮像条件情報306を格納する。
 番号情報301は、レシピ-画像記憶部201に記憶されるデータの番号を保持する。加工装置情報302は、各番号に対応する装置情報を保持する。装置情報とは、例えば加工装置の個体を識別できるIDや加工装置の型式などの情報である。加工プロセス情報303は、各番号に対応するプロセス情報を保持する。プロセス情報とは、加工装置が実施する加工の種別/加工対象/加工の内容を特定できる情報である。レシピ情報304は、各番号に対応するレシピ情報を保持する。レシピ情報とは、加工レシピの内容を記述したパラメータである。例えば加工装置が用いる電流/電圧/使用するガスの流量や圧力、などの情報である。検査画像情報305は、各番号に対応する検査画像を保持する。撮像条件情報306は、各番号に対応する検査画像の撮像条件を保持する。撮像条件とは、例えば露光時間や電子の加速電圧などのような、検査画像に対して影響が生じ得る条件である。レシピ情報304と撮像条件306は、スカラ量であってもよいしベクトル量であってもよい。また、ひとつ以上の値の時系列情報であってもよい。検査画像情報305は1枚でもよいし複数枚でもよい。
 図4は、画像条件設定部203の詳細構成図である。画像条件設定部203は、学習部204が学習を実施する際に用いる画像変換に関する条件を設定する。操作者は画像条件設定部203が提供するインターフェースを用いて、各変換条件をセットする。
 画像条件設定部203は、対象装置入力部401、対象プロセス入力部402、画像変換手法入力部403、倍率入力部404、基準点情報入力部405、画像サイズ入力部406、対象データ表示部407、変換画像表示部408を備える。
 操作者は、対象装置入力部401に対して学習対象の装置を指定する。学習対象の装置は、レシピ-画像記憶部201が記憶している加工装置情報302によって指定することができる。
 操作者は、対象プロセス入力部402に対して学習対象のプロセス情報を指定する。プロセス情報は、レシピ-画像記憶部201が記憶している加工プロセス情報303によって指定することができる。
 操作者は、画像変換手法入力部403に対して検査画像変換部202が実施する画像変換の手法を指定する。ここでいう画像変換手法は、例えばセマンティックセグメンテーションや画像処理における各種フィルタ処理などのように、撮像条件に依拠する成分を減少させることができるものである。例えばセマンティックセグメンテーションは、物体認識などにおいて用いられる手法であり、画像の境界部分を識別することにより1以上のサブ領域に区分し、サブ領域ごとに異なる画素値(輝度や色など)を割り当てるものである。このような変換により、検査画像のうち撮像条件によって変動する成分を減少させることができる。操作者は画像変換手法入力部403に対して画像変換手法そのものの種類やそのパラメータを入力してもよいし、画像変換処理を実装したプログラムを入力してもよいし、あらかじめ設定してある画像変換手法からいずれかを選択してもよい。
 操作者は、倍率入力部404に対して画像変換後の画像倍率を指定する。本発明においては、予測画像と103と目標画像104を比較することによりレシピを更新する。したがって、両画像の撮像倍率が同一でなければ目標形状を達成するレシピを生成することは困難である。構造予測部102を学習する際の変換後検査画像についても、撮像倍率が一定に保たれていることが望ましい。検査画像変換部202は、倍率入力部404に対して入力された倍率と撮像条件情報306にしたがって画像を拡大縮小することにより、学習において用いる画像の撮像倍率を制御する。
 操作者は、基準点情報入力部405に対して画像変換時に用いる基準点を指定する。本発明においては、構造予測部102を学習する際に、予測画像103と目標画像104を比較する。この比較時において、構造の寸法値以外の影響を受けないようにすることが重要であるので、倍率と同様に並進/回転を制御することが望ましい。そこで操作者は、基準点情報入力部405に対して基準点を指定し、各検査画像の基準点位置を指定された位置に合わせる。これにより、並進/回転による影響を除去する。基準点は、基準点を検出するためのフィルタやアルゴリズム、検査画像間で基準点を合わせるための画像上の位置などによって指定することができる。基準点は1つ以上指定することができる。1つの場合は並進の影響を除去でき、2つ以上であれば並進/回転の影響を除去できる。
 操作者は、画像サイズ入力部406に対して変換に用いる画像サイズを入力する。変換に用いる画像サイズとは、変換前の検査画像から切り出す画像サイズと変換後検査画像の画像サイズである。画像サイズを所定のサイズにそろえることにより、学習を安定させることができる。
 対象データ表示部407は、学習対象となるデータを表示する。対象データ表示部407が表示するデータは、対象装置入力部401と対象プロセス入力部402に対して入力された装置情報/プロセス情報に対応するレシピ/検査画像である。変換画像表示部408は、対象データ表示部407が表示す検査画像とペアになっている変換後検査画像を表示する。
 図5は、画像条件設定部203が提供するインターフェースの1例である。操作者は各部に対して以下の情報を指定する。対象装置入力部401には学習対象となる装置が入力される。対象プロセス入力部402には学習対象となるプロセスが入力される。画像変換手法入力部403には画像変換手法が入力される。倍率入力部404には倍率が入力される。基準点情報入力部405には基準点が入力される。画像サイズ入力部406には画像サイズが入力される。
 操作者が入力した情報に基づき、対象データ表示部407は学習対象データを表示し(407r、407i)、変換画像表示部408は変換後検査画像を表示する。407rは対象データのレシピ情報であり、407iは対象データの検査画像である。ここで表示される検査画像407iは変換前の画像であり、倍率がまちまちであったり、基準点が画像上の同じ位置に揃っていなかったりすることがある。変換画像表示部408は、画像変換するとともに倍率/基準点/画像サイズが調整された画像を表示するので、同じ構造であれば同じ画像を表示することになる。また、画像の変化が構造の変化と等しいので、レシピと構造の関係を直接学習できる。変換画像表示部408は、画像上の基準点位置を合わせて表示してもよい。
 図6は、検査画像変換部202の詳細構成図である。検査画像変換部202は、画像変換部602、倍率調整部603、基準点調整部604、画像サイズ調整部60を備える。検査画像変換部202は、撮像条件600と検査画像601を用いて変換後検査画像606を生成する。601-1、601-2はそれぞれ検査画像601の1例であり、606-1、606-2はそれぞれ変換後検査画像606の1例である。撮像条件600と検査画像601は、レシピ-画像記憶部201が格納している検査画像情報305と撮像条件306のうち、画像条件設定部203において設定された装置情報とプロセス情報に該当するデータを抽出したものである。
 画像変換部602は、光や電子線の状態に対する依存度が低減するように検査画像を変換する。ここでは変換手法としてセマンティックセグメンテーションを用いる例を示す。セマンティックセグメンテーションは、画像606-1、606-2のような連続的な輝度値を持つ画像を画像606-1、606-2のような離散的な画素値を持つ画像に変換する処理である。ここでは検査画像中の空気層/マスク/シリコン/ラフネスの部分をそれぞれ異なる画素値によって示している。このように検査画像中の領域ごとに異なる離散値を与える。ここでは空気層/マスク/シリコン/ラフネスの4クラスへ区分する例を示したが、検査画像の内容に応じて適切なクラスを設定することができる。セマンティックセグメンテーションを実装する手法としては、例えばFully Convolutional Neural NetworksなどのConvolutional Neural Networks(CNN)を用いることができる。
 倍率調整部603は、変換後検査画像606の撮像倍率が一定になるように倍率を調整する。倍率調整部603は、撮像条件600と検査画像601を入力として受け取り、各検査画像601に対応する撮像条件600から各検査画像601の撮像倍率を読み込み、画像条件設定部203において設定された撮像倍率に合うように画像を拡大縮小する。
 基準点調整部604と画像サイズ調整部605は、倍率調整後の画像が同じ画像サイズを有し基準点位置が同じ場所に揃うように処理する。これは例えば、基準点を画像中から検出し、基準点を基準としてあらかじめ決められた領域を切り出すことにより、実施することができる。
 図7は、学習部204が実施する学習過程を示す模式図である。学習部204は、レシピ101から変換後検査画像を予測する構造予測部102を学習し、その学習結果を学習モデル記憶部205に対して学習条件と組み合わせて格納する。学習部204は、構造予測部102、レシピ予測部701、識別部703を備える。
 学習部204は、Generative Adversarial Networks(GAN)と呼ばれる手法を用いて構造予測部102を学習する。GANにおいては、識別器は与えられた画像を正しく識別しようとし、生成器は識別器を騙す画像を生成しようとし、両者が互いに対立しながら学習を進行させることにより、より精度の高い画像を生成するように学習が進行する手法である。図7の構成においては、識別部703は与えられた画像とレシピのペアが正しい組み合わせであるか否かを判定し、構造予測部102は識別部703が正しい組み合わせであると認識する程度の精度を有する予測画像103を出力する。識別部703が識別精度を上げるように学習を繰り返し、構造予測部102がより精度の高い予測画像103を出力するように学習を繰り返すことにより、学習部204全体としての学習が進行する。以下、各部の動作について説明する。
 構造予測部102は、レシピ101を入力として予測画像103を出力する。レシピ予測部701は、変換後検査画像606を入力として予測レシピ702を出力する。識別部703は、画像とレシピのペアを入力として受け取り、そのペアが正しい組み合わせであるか否かを判定する。具体的には、変換後検査画像606と予測画像103のどちらか一方を入力画像として受け取るとともに、レシピ101と予測レシピ702のどちらか一方を入力レシピとして受け取り、それらが正しい組み合わせであるか否かを示す識別結果704を出力する。
 構造予測部102/レシピ予測部701/識別部703は、例えばニューラルネットワークによって実装することができる。ニューラルネットワークは、損失を最小化するようにパラメータを最適化することにより、学習を進める。図7においては以下の損失が考えられる。
 損失l1:予測画像103と、(レシピ101と組になる)変換後検査画像606との間の損失。主に構造予測部102を学習する際に用いられる。
 損失l2:予測レシピ702と、(変換後検査画像606と組になる)レシピ101との間の損失。主にレシピ予測部701を学習する際に用いられる。
 損失l12:レシピ101を入力として生成された予測画像103をレシピ予測部701の入力として予測レシピ702を生成し、その予測レシピ702とレシピ101との間の損失。学習が適切に進行することにより、上記のように生成した予測レシピ702はレシピ101に戻ることが期待されるので、この損失l12も学習の評価指標として用いることとした。
 損失l21:変換後検査画像606を入力として生成された予測レシピ702を構造予測部102の入力として予測画像103を生成し、その予測画像103と変換後検査画像606との間の損失。学習が適切に進行することにより、上記のように生成した予測画像103は変換後検査画像606に戻ることが期待されるので、この損失l21も学習の評価指標として用いることとした。
 損失l3:識別結果704が正しい識別結果を表しているか否かを評価する損失。
 損失l4:学習結果が偏らないようにするための損失。例えば識別部703の入力の勾配を損失l4とすることができる。
 構造予測部102は、l1、l12、l21、負のl3を最小化するようにパラメータを更新する。レシピ予測部701は、l2、l12、l21、負のl3を最小化するようにパラメータを更新する。識別部703は、l3とl4を最小化するようにパラメータを更新する。
 レシピを生成するためには構造予測部102のみを用いれば足りるが、GANを用いて構造予測部102を学習するためにレシピ予測部701と識別部703を併用する。識別部703は、入力が変換後検査画像606とレシピ101の正しいペアである場合のみ、その旨の識別結果704を出力するように学習する。すなわち識別部703は、入力されるレシピと画像との間の正しい組み合わせを学習する。構造予測部102とレシピ予測部701は、識別部703が正しい組み合わせであると誤認識するような精度を有する予測画像103と予測レシピ702をそれぞれ出力するように、学習を進行する。これらの相互作用により、構造予測部102はレシピ101と予測画像103の正しい組み合わせを出力するように学習し、レシピ予測部701は変換後検査画像606と予測レシピ702の正しい組み合わせを出力するように学習する。
 構造予測部102とレシピ予測部701は、入力されるレシピ101と変換後検査画像606から、正しい組み合わせである変換後検査画像606とレシピ101をそれぞれ予測することが期待される。このとき、レシピ101を入力として構造予測部102が出力した予測画像103を、レシピ予測部701に入力して得られる予測レシピ702は、元の入力であるレシピ101と等しくなることが望ましい。同様に、変換後検査画像606を入力としてレシピ予測部701が出力した予測レシピ702を、構造予測部102に入力して得られる予測画像103は、元の入力である変換後検査画像606と等しくなることが望ましい。したがって、これらに対応する損失l12とl21を最小化することも、構造予測部102の学習を助ける効果がある。
 図8は、学習モデル記憶部205が格納する情報の詳細構成図である。学習モデル記憶部205は、モデル番号情報801、加工装置情報802、プロセス情報803、画像変換条件情報804、学習モデル情報805、学習パラメータ情報806を保持する。
 モデル番号情報801は、学習モデル記憶部205に格納されている学習モデルの番号である。加工装置情報802は、各学習モデルが学習した加工装置に関する情報を保持する。プロセス情報803は、各学習モデルが学習したプロセスに関する情報を保持する。画像変換条件情報804は、各学習モデルを学習する際に使用した画像変換条件を保持する。学習モデル情報805は、各学習モデルに関する情報を保持する。学習モデルに関する情報とは、例えば構造予測部102による処理内容やその際に用いるパラメータである。処理とは例えばニューラルネットワークの層構成であり、パラメータとはニューラルネットワークの荷重行列やバイアス項である。学習モデル情報805が保持する学習モデルは、構造予測部102だけでなく、レシピ予測部701や識別部703を含んでもよい。さらに、学習終了時に各学習モデルが達成した損失の値を格納してもよい。学習パラメータ情報806は、各学習モデルを学習する際に使用したパラメータを保持する。例えば最適化器の種類、学習率、学習回数、バッチサイズ、その他学習に影響するパラメータを保持することができる。
 図9は、学習部204が学習を実施する手順を説明するフローチャートである。ステップS901において、操作者は画像条件設定部203を介して学習条件を設定する。ステップS902において、検査画像変換部202は画像条件設定部203により設定された学習条件に該当する装置情報とプロセス情報をレシピ-画像記憶部201から読み込む。ステップS903において、検査画像変換部202は画像条件設定部203により設定された画像変換条件を用いて検査画像を変換することにより、変換後検査画像606を生成する。ステップS904において、学習部204がレシピ-画像記憶部201から学習条件に該当する装置とプロセスに対応するレシピ情報を読み取り、検査画像変換部202から変換後検査画像606を読み込み、レシピ101から変換後検査画像606を予測する構造予測部102を学習する。本ステップにおいて読み込むレシピ101と変換後検査画像606は、レシピ-画像記憶部201において同じ番号情報301を持つ組み合わせが保たれている。ステップS905において、学習部204は学習に用いた条件と学習で得られた学習モデルを学習モデル記憶部205に格納する。
 図9の学習フローは、操作者によって学習フローが開始されるタイミング、学習条件に関連するレシピ-画像記憶部201のデータが更新されるタイミング、などの所定のタイミングで実行される。レシピ生成前に学習モデルを学習モデル記憶部205に格納し、レシピ生成時には学習モデル記憶部205から必要な情報を用いてもよいし、レシピ生成時に逐次学習モデルを学習してもよい。
 図10は、目標形状入力部206の構成図である。目標形状入力部206は、操作者が加工により得る目標形状を入力するインターフェースを提供する。目標形状入力部206は、対象装置入力部1001、対象プロセス入力部1002、学習モデル選択部1003、レシピ評価指標選択部1004、目標形状入力部1005、目標画像表示部1006を備える。
 操作者は、対象装置入力部1001に対して、レシピ生成する対象の装置に関する情報を入力する。学習モデル記憶部205に格納されている加工装置情報802と同様の情報を入力することができる。
 操作者は、対象プロセス入力部1002に対して、レシピ生成する対象のプロセスに関する情報を入力する。学習モデル記憶部205に格納されているプロセス情報803と同様の情報を入力することができる。
 操作者は、学習モデル選択部1003を介して、レシピ生成に用いる学習モデルを選択する。学習モデル記憶部205に格納されている学習モデル情報805と同様の情報を選択することができる。
 操作者は、レシピ評価指標選択部1004を介して、レシピ評価指標を選択する。目標構造に近い構造を達成するレシピは無数に存在するので、その中から適切なレシピを選択するための指標が必要となる。操作者はレシピ評価指標選択部1004を介してその評価指標を選択する。評価指標としては、例えば勾配最小指標や損失最小指標を用いることができる。これらの例については図13を用いて説明する。
 操作者は、目標形状入力部1005に対して目標形状値を入力する。例えば各部位の寸法値を目標形状として入力してもよいし、目標とする構造の設計データを入力してもよい。
 目標画像表示部1006は、目標形状入力部1005に対して入力された目標形状値を用いて目標画像生成部207が生成した目標画像104を表示する。
 図11は、目標形状入力部206の画面例である。操作者は各部に対して以下の情報を指定する。対象装置入力部1001にはレシピ生成対象の装置が入力される。対象プロセス入力部1002にはレシピ生成対象のプロセスが入力される。学習モデル選択部1003ではでレシピ生成に用いる学習モデルが選択される。レシピ評価指標選択部1004ではレシピ生成に用いる評価指標が選択される。目標形状入力部1005には目標形状が入力される。これらが入力されると、目標画像生成部207は入力された情報にしたがって目標画像を生成し、目標画像表示部1006は生成された目標画像を表示する。
 図12は、目標画像生成部207の詳細構成図である。目標画像生成部207は、画像変換条件読み込み部1201と目標画像描画部1202を備える。
 画像変換条件読み込み部1201は、目標形状入力部206で選択された学習モデルに対応する画像変換条件を学習モデル記憶部205から読み込む。目標画像描画部1202は、読み込んだ画像変換条件にしたがって、目標画像104を描画し出力する。
 図13は、レシピ評価指標の概要図である。ここでは簡単のためレシピが1次元データによって記述されていると仮定しているが、レシピが多次元の場合でも以下の手順は同様である。横軸はレシピの内容を表すパラメータ値である。縦軸はレシピによって構造予測部102で得られる予測画像103と目標画像104との間の損失である。損失は例えばL1誤差などである。以下図13を用いて、目標形状を達成するレシピを探索する手順を説明する。
 目標構造を達成するレシピは無数に存在するので、レシピ値を変化させていくと損失値は複数の極小値をとる。図13においては2つの極小値1301と1302が存在する。損失最小指標は最も小さい損失値を達成する極小値を選択する指標である。図13の場合には損失最小指標は極小値1302を選択する。勾配最小指標は極小値周辺の勾配が最小となる極小値を選択する指標である。図13の場合には極小値1301が選択される。損失最小指標は最も損失値が小さいので、目標構造を達成する可能性が高いレシピを選択することになる。勾配最小指標はレシピや装置の状態変化に対して頑強なレシピを選択するためのものである。
 図13に示すように、極小値1301の周辺では損失値の変動が小さい。そのため、極小値1301の周辺ではレシピや装置状態にノイズが混入しても損失値が大きく変化しないので、これらのノイズに対して予測される構造は頑強である。そのため、実際に加工する際にも、これらのノイズに対して加工される構造が頑強であることが期待できる。これに対して極小値1302の周辺ではレシピの微小変動に対して損失値が大きく変化する。そのため、極小値1302周辺ではノイズの影響で加工結果が大きく変動する可能性が高いことが予想される。
 図14は、レシピ生成部208がレシピを生成する手順を説明するフローチャートである。ステップS1401において、操作者は目標形状入力部206を介して目標形状を入力する。ステップS1402において、目標画像生成部207は目標形状入力部206に入力された情報にしたがって、学習モデル記憶部205から画像変換条件を読み込み、目標画像104を生成する。ステップS1403において、レシピ生成部208は乱数でレシピを生成することにより初期化する。このときレシピを複数生成する。ステップS1404において、レシピ生成部208は初期化したレシピを勾配降下法で更新する。具体的には図1で示したように、レシピ101を構造予測部102に入力し、出力された予測画像103と目標画像104との間の損失(例えばL1誤差)を計算し、得られた損失を誤差逆伝搬することによりレシピの勾配を求め、勾配降下法でレシピを更新する。このレシピの更新をあらかじめ決められた回数、もしくはレシピの更新量が所定の閾値以下になるなどの収束条件を満たすまで実施する。勾配降下法によるレシピ生成は、得られるレシピが初期値に依存するので、ステップS1403において複数のレシピを生成することにより、複数の損失極小値を達成するレシピを得ることができる。ステップS1405において、レシピ生成部208は得られた複数のレシピの中から低い損失を達成したレシピを抽出する。ステップS1405は例えば、得られたレシピの中から目標画像104との損失が低い順に所定の数のレシピを抽出する、得られたレシピの中で目標画像104と損失が最も低いものから順に所定割合のものを抽出する、もしくは所定範囲内の損失を達成するレシピを抽出する、などによって実施することができる。勾配降下法を用いる場合、生成したレシピによっては得られる損失が比較的高いレシピが得られることがあるので、ある程度良い損失値に到達したレシピを抽出することがステップS1405の目的である。ステップS1406において、レシピ生成部208はステップS1405で抽出したレシピの中から、目標形状入力部206で選択されたレシピ評価指標が高いものを選択し、出力する。
<本発明のまとめ>
 本発明に係る加工レシピ生成装置100によれば、専門家が検査画像上の計測位置を指定してその寸法を測定する工程を実施することなく、レシピと検査画像のみから、目標とする構造にできる限り近い構造を達成するレシピを自動的に生成することができる。また特定部位の寸法値に依拠することなくレシピを生成することができるので、より優れたレシピを生成することができる。
<本発明の変形例について>
 本発明は上記実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換える事が可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について他の構成の追加・削除・置換をすることができる。
 以上の説明においては、半導体製造装置を例に記載したが、他に様々な応用が考えられる。本発明は、検査画像と加工装置のパラメータとの間の関係を直接学習することが特徴であるので、検査画像と加工装置のパラメータを制御できる、例えば機械部品加工などにも応用できる。
 以上の説明においては、検査画像変換部202がセマンティックセグメンテーションを用いて画像を変換することにより、撮像条件に依拠する画像上の成分を減少させることを説明したが、同様の効果を発揮できればその他手法を用いることもできる。例えば画像の階調を下げる、シャープネスを上げる、などの手法が考えられる。複数の手法を併用することもできる。
 以上の説明においては、学習部204がレシピ101と変換後検査画像606との間の対応関係を学習するためにGANを用いることを説明したが、その他適当な手法により学習を実施してもよい。またニューラルネットワーク以外の学習手法を用いてもよい。
100:加工レシピ生成装置
101:レシピ
102:構造予測部
103:予測画像
104:目標画像
105:レシピ修正部
201:レシピ-画像記憶部
202:検査画像変換部
203:画像条件設定部
204:学習部
205:学習モデル記憶部
206:目標形状入力部
207:目標画像生成部
208:レシピ生成部
209:加工装置
210:検査装置

Claims (10)

  1.  加工装置が対象物を加工する際における前記加工装置の動作条件を記述した加工レシピを生成する加工レシピ生成装置であって、
     前記加工装置の加工レシピ、前記加工装置が前記加工レシピを用いて加工した対象物を撮像した検査画像、および前記加工レシピと前記検査画像との間の対応関係を記憶する記憶部、
     前記検査画像が有する成分のうち前記検査画像の撮像条件に依拠するものを減少させる変換条件を用いて前記検査画像を変換した変換画像を生成する検査画像変換部、
     前記加工レシピと前記変換画像との間の関係を学習する学習部、
     前記加工装置によって加工する目標形状を入力する目標形状入力部、
     前記学習部による学習結果を用いて、前記目標形状を表す画像を前記変換条件にしたがって変換した目標画像を生成する、目標画像生成部、
     前記目標画像が表す形状を加工するために用いる目標加工レシピを生成するレシピ生成部、
     を備えることを特徴とする加工レシピ生成装置。
  2.  前記検査画像変換部は、前記検査画像を1以上のサブ領域に分割するとともに、前記サブ領域ごとに異なる画素値を与えることにより、前記変換画像を生成する
     ことを特徴とする請求項1記載の加工レシピ生成装置。
  3.  前記目標画像生成部は、1以上のサブ領域に分割され、前記サブ領域ごとに異なる画素値を有する前記目標画像を生成する
     ことを特徴とする請求項1記載の加工レシピ生成装置。
  4.  前記学習部は、
      前記加工レシピを入力として受け取り、前記加工レシピと前記変換画像との間の関係を学習した結果に基づき、前記入力された加工レシピに対応する予測変換画像を予測する第1予測器を備える
     ことを特徴とする請求項1記載の加工レシピ生成装置。
  5.  前記学習部は、
      前記変換画像を入力として受け取り、前記加工レシピと前記変換画像との間の関係を学習した結果に基づき、前記入力された変換画像に対応する予測加工レシピを予測する第2予測器、
      前記加工レシピまたは前記予測加工レシピを入力として受け取るとともに、前記変換画像または前記予測変換画像を入力として受け取り、前記入力されたレシピと前記入力された画像が正しい組み合わせであるか否かを識別する識別器、
     を備え、
     前記学習部は、前記識別器が誤った識別結果を出力する前記予測変換画像を出力するように前記第1予測器に学習させ、前記識別器が誤った識別結果を出力する前記予測加工レシピを出力するように前記第2予測器に学習させ、前記識別器が正しい識別結果を出力するように前記識別器に学習させることを繰り返すことにより、前記加工レシピと前記変換画像との間の関係を学習する
     ことを特徴とする請求項4記載の加工レシピ生成装置。
  6.  前記第1予測器と前記第2予測器は、前記第2予測器が前記予測変換画像を入力として受け取って予測した結果が前記加工レシピと一致するように学習を実施し、
     前記第1予測器と前記第2予測器は、前記第1予測器が前記予測加工レシピを入力として受け取って予測した結果が前記変換画像と一致するように学習を実施する
     ことを特徴とする請求項5記載の加工レシピ生成装置。
  7.  前記レシピ生成部は、前記予測変換画像と前記目標画像との間の差分ができる限り小さい加工レシピを、加工レシピの候補群のなかから探索することにより、前記目標加工レシピを生成する
     ことを特徴とする請求項4記載の加工レシピ生成装置。
  8.  前記レシピ生成部は、前記差分が極小となる加工レシピ、または前記差分の変化率が極小となる加工レシピを、前記目標加工レシピとして採用する
     ことを特徴とする請求項7記載の加工レシピ生成装置。
  9.  前記加工レシピ生成装置はさらに、
      前記検査画像変換部が前記検査画像を変換する際の変換条件を指定する条件設定部を備える
     ことを特徴とする請求項1記載の加工レシピ生成装置。
  10.  前記条件設定部は、前記変換条件として、
      前記変換画像の撮像倍率、
      前記変換画像の画像サイズ、
      前記検査画像と前記変換画像との間の位置合わせの基準点、
     を指定し、
     前記目標画像生成部は、前記目標画像の撮像倍率、前記目標画像の画像サイズ、および前記目標画像のなかの基準点が、前記条件設定部によって指定された前記変換画像の撮像倍率、前記変換画像の画像サイズ、および前記検査画像と前記変換画像との間の位置合わせの基準点とそれぞれ一致するように、前記目標画像を生成する
     ことを特徴とする請求項9記載の加工レシピ生成装置。
PCT/JP2018/015042 2018-04-10 2018-04-10 加工レシピ生成装置 WO2019198143A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2020512966A JP6995191B2 (ja) 2018-04-10 2018-04-10 加工レシピ生成装置
US17/043,815 US11393084B2 (en) 2018-04-10 2018-04-10 Processing recipe generation device
PCT/JP2018/015042 WO2019198143A1 (ja) 2018-04-10 2018-04-10 加工レシピ生成装置
TW108107370A TWI701613B (zh) 2018-04-10 2019-03-06 加工配方生成裝置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2018/015042 WO2019198143A1 (ja) 2018-04-10 2018-04-10 加工レシピ生成装置

Publications (1)

Publication Number Publication Date
WO2019198143A1 true WO2019198143A1 (ja) 2019-10-17

Family

ID=68163523

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/015042 WO2019198143A1 (ja) 2018-04-10 2018-04-10 加工レシピ生成装置

Country Status (4)

Country Link
US (1) US11393084B2 (ja)
JP (1) JP6995191B2 (ja)
TW (1) TWI701613B (ja)
WO (1) WO2019198143A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058688A1 (ja) * 2021-10-08 2023-04-13 東京エレクトロン株式会社 エッチング処理システム、エッチング品質予測方法及びエッチング品質予測プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7353940B2 (ja) * 2019-11-26 2023-10-02 株式会社日立製作所 転移可能性判定装置、転移可能性判定方法、及び転移可能性判定プログラム
US11321835B2 (en) * 2020-03-17 2022-05-03 Applied Materials Israel Ltd. Determining three dimensional information
US20230012173A1 (en) * 2021-07-08 2023-01-12 Hitachi High-Tech Corporation Process recipe search apparatus, etching recipe search method and semiconductor device manufacturing system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513997A (ja) * 2004-09-20 2008-05-01 東京エレクトロン株式会社 モデルフィードバックアップデートを用いた分離/入れ子形カスケーディングトリム制御
JP2013518449A (ja) * 2010-01-29 2013-05-20 東京エレクトロン株式会社 半導体製造ツールを自己学習及び自己改善するための方法及びシステム
JP2017162456A (ja) * 2016-03-11 2017-09-14 株式会社東芝 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6850252B1 (en) * 1999-10-05 2005-02-01 Steven M. Hoffberg Intelligent electronic appliance system and method
JP3799314B2 (ja) 2002-09-27 2006-07-19 株式会社日立ハイテクノロジーズ エッチング処理装置およびエッチング処理方法
JP4943304B2 (ja) * 2006-12-05 2012-05-30 株式会社 Ngr パターン検査装置および方法
JP4365854B2 (ja) * 2006-12-13 2009-11-18 株式会社日立ハイテクノロジーズ Sem装置又はsemシステム及びその撮像レシピ及び計測レシピ生成方法
US20160217240A1 (en) * 2015-01-28 2016-07-28 Dmo Systems Limited Methodology Of Incorporating Wafer Physical Measurement With Digital Simulation For Improving Semiconductor Device Fabrication
US11507064B2 (en) * 2016-05-09 2022-11-22 Strong Force Iot Portfolio 2016, Llc Methods and systems for industrial internet of things data collection in downstream oil and gas environment
US11138471B2 (en) * 2018-05-18 2021-10-05 Google Llc Augmentation of audiographic images for improved machine learning
US10426442B1 (en) * 2019-06-14 2019-10-01 Cycle Clarity, LLC Adaptive image processing in assisted reproductive imaging modalities

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008513997A (ja) * 2004-09-20 2008-05-01 東京エレクトロン株式会社 モデルフィードバックアップデートを用いた分離/入れ子形カスケーディングトリム制御
JP2013518449A (ja) * 2010-01-29 2013-05-20 東京エレクトロン株式会社 半導体製造ツールを自己学習及び自己改善するための方法及びシステム
JP2017162456A (ja) * 2016-03-11 2017-09-14 株式会社東芝 道路シーンのセマンティックセグメンテーションのための制約付きデコンボリューションネットワークのトレーニング

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058688A1 (ja) * 2021-10-08 2023-04-13 東京エレクトロン株式会社 エッチング処理システム、エッチング品質予測方法及びエッチング品質予測プログラム

Also Published As

Publication number Publication date
TW201944298A (zh) 2019-11-16
JP6995191B2 (ja) 2022-01-14
US20210035277A1 (en) 2021-02-04
TWI701613B (zh) 2020-08-11
US11393084B2 (en) 2022-07-19
JPWO2019198143A1 (ja) 2021-03-11

Similar Documents

Publication Publication Date Title
WO2019198143A1 (ja) 加工レシピ生成装置
JP5180428B2 (ja) 走査型電子顕微鏡用撮像レシピ作成装置及びその方法並びに半導体パターンの形状評価装置
US7888638B2 (en) Method and apparatus for measuring dimension of circuit pattern formed on substrate by using scanning electron microscope
TWI697849B (zh) 圖像處理系統、記憶媒體、資訊擷取系統及資料產生系統
WO2012001876A1 (ja) パターンマッチング方法,画像処理装置、及びコンピュータプログラム
US11670528B2 (en) Wafer observation apparatus and wafer observation method
KR20210087063A (ko) 화상 평가 장치 및 방법
TWI783400B (zh) 誤差因子的推定裝置及推定方法
US20230325413A1 (en) Error Factor Estimation Device and Error Factor Estimation Method
JP2023181587A (ja) 欠陥検査装置
US20090030867A1 (en) Reviewing apparatus, recipe setting method for reviewing apparatus and reviewing system
CN113767459B (zh) 检查装置调整系统以及检查装置调整方法
KR20220000896A (ko) 치수 계측 장치, 반도체 제조 장치 및 반도체 장치 제조 시스템
EP4343710A1 (en) Mark detection method and computer program
JP2020107102A (ja) 画像判定装置、画像判定方法及び画像判定プログラム
US20230071668A1 (en) Pattern Matching Device, Pattern Measurement System, and Non-Transitory Computer-Readable Medium
KR20220073640A (ko) 하전 입자 빔 장치
JP4357410B2 (ja) 電子顕微鏡による測定条件決定方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18914802

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020512966

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18914802

Country of ref document: EP

Kind code of ref document: A1