JP2024085379A - 半導体映像処理方法及び装置 - Google Patents

半導体映像処理方法及び装置 Download PDF

Info

Publication number
JP2024085379A
JP2024085379A JP2023180028A JP2023180028A JP2024085379A JP 2024085379 A JP2024085379 A JP 2024085379A JP 2023180028 A JP2023180028 A JP 2023180028A JP 2023180028 A JP2023180028 A JP 2023180028A JP 2024085379 A JP2024085379 A JP 2024085379A
Authority
JP
Japan
Prior art keywords
image
semiconductor
original
input
augmented
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023180028A
Other languages
English (en)
Inventor
聖眞 朴
Seong-Jin Park
宣▲みん▼ 李
Seon Min Rhee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics Co Ltd filed Critical Samsung Electronics Co Ltd
Publication of JP2024085379A publication Critical patent/JP2024085379A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4046Scaling of whole images or parts thereof, e.g. expanding or contracting using neural networks
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03FPHOTOMECHANICAL PRODUCTION OF TEXTURED OR PATTERNED SURFACES, e.g. FOR PRINTING, FOR PROCESSING OF SEMICONDUCTOR DEVICES; MATERIALS THEREFOR; ORIGINALS THEREFOR; APPARATUS SPECIALLY ADAPTED THEREFOR
    • G03F1/00Originals for photomechanical production of textured or patterned surfaces, e.g., masks, photo-masks, reticles; Mask blanks or pellicles therefor; Containers specially adapted therefor; Preparation thereof
    • G03F1/36Masks having proximity correction features; Preparation thereof, e.g. optical proximity correction [OPC] design processes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0006Industrial image inspection using a design-rule based approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30148Semiconductor; IC; Wafer

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】半導体映像処理方法及び装置を提供する。【解決手段】その方法は、半導体生産のための工程の適用対象に対応するオリジナル入力映像から前記オリジナル入力映像の半導体パターンの入力コンポーネントを識別し、オリジナル入力映像から入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成し、増強入力映像に基づいて工程によるパターン変形を推定するニューラルモデルを実行する。【選択図】図6

Description

以下の実施形態は、半導体映像処理方法及び装置に関する。
半導体生産工程は、ウェハーの加工のための様々な細部工程を含むことができる。また、細部工程の誤差を減らす様々な技術が存在する。例えば、現像工程のためにOPC(optical proximity correction)が、エッチング工程のためにPPC(process proximity correction)を用いてもよい。ニューラルネットワークは、ディープラーニングに基づいて訓練された後、非線形関係にある入力データ及び出力データを互いにマッピングすることで、目的に適する推論を実行することができる。このようなマッピングを生成する訓練された能力は、神経網の学習能力といえる。ニューラルネットワークは様々な技術分野で使用され、半導体生産工程に結合されてもよい。
本発明の網的は、半導体映像処理方法及び装置を提供することにある。
一実施形態によれば、半導体映像処理方法は、半導体生産のための工程の適用対象に対応するオリジナル入力映像から前記オリジナル入力映像の半導体パターンの入力コンポーネントを識別するステップと、前記オリジナル入力映像から前記入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成するステップと、前記増強入力映像に基づいて前記工程によるパターン変形を推定するニューラルモデルを実行するステップとを含む。
一実施形態に係るトレーニング方法は、半導体生産のための工程の適用対象に対応するオリジナル入力映像及び前記工程の適用結果に対応するオリジナル出力映像から、前記オリジナル入力映像の半導体パターンの入力コンポーネント及び前記オリジナル出力映像の半導体パターンの出力コンポーネントを識別するステップと、前記入力コンポーネントと前記出力コンポーネントとの間のマッチング関係に基づいてコンポーネントの対を決定するステップと、前記オリジナル入力映像及び前記オリジナル出力映像から前記コンポーネントの対の少なくとも1つを含む変形対象を除去して増強入力映像及び増強出力映像を生成するステップと、前記増強入力映像及び前記増強出力映像に基づいて前記工程によるパターン変形を予測するニューラルモデルをトレーニングするステップとを含む。
一実施形態に係る半導体映像処理装置は、半導体生産のための工程の適用対象に対応するオリジナル入力映像から前記オリジナル入力映像の半導体パターンの入力コンポーネントを識別し、前記オリジナル入力映像から前記入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成し、前記増強入力映像に基づいて前記工程によるパターン変形を推定するニューラルモデルを実行する1つ以上のプロセッサを含む。
半導体生産工程を例示する図である。 補正有無による現像結果の差を例示する図である。 半導体生産工程におけるフォワードシミュレーション及びバックワード補正を例示する図である。 一実施形態に係るニューラルフォワードモデルとニューラルバックワードモデルのトレーニング過程を例示する図である。 一実施形態に係る半導体映像の増強及び活用過程を例示する図である。 一実施形態に係る意味論的コンポーネントの除去を通した増強過程を例示する図である。 一実施形態に係る増強データを用いたニューラルモデルのトレーニング過程を例示する図である。 一実施形態に係る増強データを用いたニューラルモデルの推論過程を例示する図である。 一実施形態に係る半導体映像処理方法を例示するフローチャートである。 一実施形態に係るニューラルモデルのトレーニング方法を例示するフローチャートである。 一実施形態に係る半導体映像処理装置の構成を例示するブロック図である。 一実施形態に係る電子装置の構成を例示するブロック図である。
実施形態に対する特定な構造的又は機能的な説明は単なる例示のための目的として開示されたものであって、様々な形態に変更されることができる。したがって、実施形態は特定な開示形態に限定されるものではなく、本明細書の範囲は技術的な思想に含まれる変更、均等物ないし代替物を含む。
第1又は第2などの用語を複数の構成要素を説明するために用いることがあるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば、第1構成要素は第2構成要素と命名することができ、同様に、第2構成要素は第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結」されているか「接続」されていると言及されたときには、その他の構成要素に直接的に連結されているか又は接続されているが、中間に他の構成要素が存在し得るものと理解されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載した特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品、又はこれを組み合わせたものなどの存在又は付加の可能性を予め排除しないものとして理解しなければならない。
本明細書において、「A又はBのうち少なくとも1つ」及び「A、B、又はCのうち少なくとも1つ」のような文句は、それぞれその文句のうち該当する文句と共に羅列された項目のいずれか1つ又はそのすべての可能な組み合わせを含んでもよい。
異なるように定義さがれない限り、技術的又は科学的な用語を含んで、ここで用いる全ての用語は、本実施形態が属する技術分野で通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上で有する意味と一致する意味を有するものと解釈されなければならず、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、添付する図面を参照しながら実施形態を詳細に説明する。図面を参照して説明する際に、図面符号に拘わらず同じ構成要素は同じ参照符号を付与し、これに対する重複する説明は省略する。
図1は、半導体生産工程を例示する図である。図1を参照すると、半導体生産工程は、ウェハー111の加工のための様々な細部工程を含んでもよい。第1ステージ110においてウェハー111が生成され、第2ステージ120においてウェハー111上にフォトレジスト121が塗布される。
第3ステージ130において、マスク131を介してフォトレジスト121に光132が照射される。マスク131のパターンに応じて光132に対するフォトレジスト121の露出領域が決定され、光132によってフォトレジスト121の露出領域が除去されることで、第4ステージ140のように、フォトレジスト121にマスク131のパターンが形成される。第3ステージ130及び第4ステージ140は、現像工程に該当する。フォトレジスト121に形成されているパターンに応じてウェハー111の露出領域が決定されてもよく、第5ステージ150において、ウェハー111の露出領域に対するエッチングが行われる。ウェハー111の露出領域が除去されることで、ウェハー111にフォトレジスト121のパターンが形成される。第6ステージ160において、フォトレジスト121が除去される。第5ステージ150及び第6ステージ160は、エッチング工程に該当する。
図2は、補正有無による現像結果の差を例示する図である。実際の半導体生産工程で希望パターン210によるオリジナルマスク220が使用されれば、光の回折、工程誤差などにより希望パターン210からの大きい誤差を有する現像結果230が示される。誤差を低減するために、オリジナルマスク220に対して補正される。現像工程に対する従来の補正方式はOPC(optical proximity correction)を含んでもよく、エッチング工程に対する従来の補正方式はPPC(process proximity correction)を含んでもよい。
図2は、現像工程に対するOPCの例示に該当する。OPCにより補正されたマスク240が決定され、補正されたマスク240を介して少ない誤差を有する現像結果250が導き出される。従来の補正方式は、初期マスクを断片化(フラグメント化)して初期マスクによる工程結果をシミュレーションし、シミュレーション結果を参照して予め決定された補正規則に基づいて初期マスクの断片を補正して新しいマスクを決定し、新しいマスクによる工程結果をシミュレーションする動作を含む。従来の補正方式によれば、予め決定された補正規則を利用した反復的な動きを介して最終的なパターンを導き出すことができる。
図3は、半導体生産工程におけるフォワードシミュレーション及びバックワード補正を例示する図である。図3を参照すると、第1パターン映像310に対する現像工程のフォワードシミュレーションを介して第2パターン映像320が決定され、第2パターン映像320に対するエッチング工程のフォワードシミュレーションを介して第3パターン映像330が決定される。フォワードシミュレーションには、半導体工程の様々な特性、条件、変数などを考慮するシミュレーションモデルを用いてもよい。例えば、第1パターン映像310に対するフォワードシミュレーションを介して、現像工程で発生可能な形態変化が第1パターン映像310に反映されて第2パターン映像320が決定されてもよく、第2パターン映像320に対するフォワードシミュレーションを介して、エッチング工程で発生可能な形態変化が第2パターン映像320に反映されて第3パターン映像330が決定されてもよい。
希望パターンに該当する第1パターン映像310とエッチング工程の結果に該当する第3パターン映像33との間に誤差が生じる場合、誤差を低減するためにバックワード補正が実行されてもよい。従来のバックワード補正は、エッチング工程に対するPPC及び現像工程に対するOPCを含んでもよい。従来の補正方式は、予め決定された補正規則を介して実行される。第4パターン映像340に対するPPCにより第5パターン映像350が生成される。第4パターン映像340は希望パターンに該当し、第5パターン映像350はエッチング工程により希望パターンが導き出されるための補正結果に該当する。第5パターン映像350に対するOPCにより第6パターン映像360が生成される。第6パターン映像360は、現像工程により第5パターン映像350が導き出されるための補正結果である。
図4は、一実施形態に係るニューラルフォワードモデルとニューラルバックワードモデルのトレーニング過程を例示する図である。実施形態によれば、半導体生産のためのターゲット工程によるパターン変形を推定するためにニューラルモデルを用いてもよい。ターゲット工程は、現像工程及び/又はエッチング工程を含んでもよい。ターゲット工程によるパターン変形は、ターゲット工程のフォワードシミュレーションによる変形、及びターゲット工程のバックワード補正による変形を含んでもよい。ニューラルモデルは、ターゲット工程のフォワードシミュレーションを行うニューラルフォワードモデル410、及びターゲット工程のバックワード補正を行うニューラルバックワードモデル420を含む。
図4を参照すると、出力パターン映像401及び入力パターン映像402に基づいて、ニューラルフォワードモデル410及びニューラルバックワードモデル420がトレーニングされ得る。入力パターン映像402はターゲット工程の適用対象に対応し、出力パターン映像401はターゲット工程の適用結果に対応する。
ニューラルフォワードモデル410及びニューラルバックワードモデル420は、ニューラルネットワークを含む。ニューラルネットワークは、複数のレイヤを含むディープニューラルネットワーク(deep neural network、DNN)を含んでもよい。ディープニューラルネットワークは、完全接続ネットワーク(fully connected network、FCN)、畳み込みニューラルネットワーク(convolutional neural network、CNN)、及びリカレントニューラルネットワーク(recurrent neural network、RNN)のうち少なくとも1つを含んでもよい。例えば、ニューラルネットワーク内の複数のレイヤのうち少なくとも一部はCNNに該当し、他の一部はFCNに該当する。CNNは畳み込みレイヤに称されてもよく、FCNは完全接続レイヤに称されてもよい。
ニューラルネットワークは、ディープラーニングに基づいてトレーニングされた後、非線形関係にある入力データ及び出力データを互いにマッピングすることで、トレーニングの目的に適する推論を実行することができる。ディープラーニングは、ビッグデータセットから映像又は音声認識のような問題を解決するための機械学習方式である。ディープラーニングは、準備されたトレーニングデータを用いてニューラルネットワークをトレーニングし、エネルギーが最小化される地点に訪ねて行く最適化問題解決の過程として理解されてもよい。ディープラーニングの教師あり(supervised)又は教師なし(unsupervised)学習を介してニューラルネットワークの構造あるいはモデルに対応する重みが求められ、このような重みを介して入力データ及び出力データが互いにマッピングされる。ニューラルネットワークの幅及び深さが十分に大きければ、任意の関数を実現できる程度の容量を有し得る。ニューラルネットワークが適切なトレーニング過程を介して十分に多い量のトレーニングデータを学習すれば、最適な性能を達成することができる。
以下、ニューラルネットワークが「予め」トレーニングされるものと表現しが、ここで、「予め」というニューラルネットワークが「開始」される前を示す。ニューラルネットワークが「開始」されたことは、ニューラルネットワークが推論のための準備ができたことを意味する。例えば、ニューラルネットワークが「開始」されたことは、ニューラルネットワークがメモリにロードされたこと、あるいはニューラルネットワークがメモリにロードされた後ニューラルネットワークに推論のための入力データが入力されたことを含む。
ニューラルフォワードモデル410は、ターゲット工程のフォワードシミュレーションを行うように予めトレーニングされることができる。ニューラルフォワードモデル410は、入力パターン映像402から出力パターン映像401を推定するように、入力パターン映像402及び出力パターン映像401を用いてトレーニングされてもよい。ニューラルバックワードモデル420は、ターゲット工程のバックワード補正を行うように予めトレーニングされてもよい。ニューラルバックワードモデル420は、出力パターン映像401から入力パターン映像402を推定するように、入力パターン映像402及び出力パターン映像401を用いてトレーニングされてもよい。
ニューラルモデルの推定正確度は、入力パターン映像402及び出力パターン映像401のようなトレーニングデータの品質に依存的であってもよい。半導体工程の特性上、出力パターン映像401及び入力パターン映像401を取得するために大きいコストが要求される。データ増強(data augmentation)方式は、トレーニングデータの取得コストを減らすために寄与する。実施形態によれば、ニューラルモデルのトレーニングコストを低減するデータ増強方式が提供され得る。ここで、増強方式によりトレーニング結果の性能が変わり得る。実施形態によれば、半導体パターン映像の特性に適する増強方式を介して、ニューラルモデルの高い推定正確度を有するようにトレーニングされてもよい。また、実施形態に係るデータ増強方式は、ニューラルモデルの推論動作の推定正確度を向上させるために使用される。
図5は、一実施形態に係る半導体映像の増強及び活用過程を例示する図である。図5を参照すると、オリジナル映像510に対するデータ増強により増強映像520が生成されてもよい。オリジナル映像510は半導体パターンを示し、半導体パターンの各意味論的なコンポーネントに基づいてデータ増強が実行され得る。意味論的なコンポーネントは、簡単にコンポーネントと呼ぶことができる。コンポーネントは、ピクセル値に基づいて区分されてもよい。0でないピクセル値を有し、互いに連結されているピクセルの1つのグループは1つのコンポーネントを形成してもよい。同じコンポーネントに属するピクセルは互いに連結され、他のコンポーネントに属するピクセルは互いに連結されなくてもよい。
増強作業は、コンポーネントの単位で実行されてもよい。オリジナル映像510のコンポーネントからコンポーネントの少なくとも1つを含む変形対象が選択され、変形対象に対する変形が行われる。変形は、変形対象の除去、変形対象のスケール、変形対象のシフト、及び変形対象の回転のうち少なくとも一部を含んでもよい。但し、変形のタイプがこれに限定されることはない。例えば、互いに異なる変形対象の除去を介して増強映像520が生成され得る。オリジナル映像510の変形対象に該当しない部分は、増強映像520で保持されてもよい。
オリジナル映像510及び増強映像520は、ニューラルモデル531のトレーニング又はニューラルモデル532の推論に用いられることができる。ニューラルモデル531,532は、フォワード工程によるパターン変形を推定するニューラルフォワードモデル、あるいはバックワード補正によるパターン変形を推定するニューラルバックワードモデルに該当する。ニューラルモデル531とニューラルモデル532は互いに同一であるか、それぞれ異なってもよい。より具体的に、第1オリジナル映像の増強による第1増強映像に基づいてニューラルモデル531のトレーニングが完了した後、第2オリジナル映像の増強による第2増強映像に基づいてニューラルモデル532の推論が実行されることができる。ここで、ニューラルモデル531とニューラルモデル532は互いに同じであってもよい。これとは異なり、ニューラルモデル532は、データ増強でない他の方式でトレーニングされてもよく、第2増強映像に基づいて推論動作を行ってもよい。
オリジナル映像510及び増強映像520がニューラルモデル531のトレーニングに使用される場合、オリジナル映像510及び増強映像520は、入力パターン映像及び出力パターン映像を含んでもよい。ニューラルモデル531がニューラルフォワードモデルに該当する場合、ニューラルモデル531は、入力パターン映像から出力パターン映像を推定するようにトレーニングされてもよい。ニューラルモデル531がニューラルバックワードモデルに該当する場合、ニューラルモデル531は、出力パターン映像から入力パターン映像を推定するようにトレーニングされてもよい。
ニューラルモデル531は、互いに対応する増強作業による増強入力映像と増強出力映像を介してトレーニングされることができる。入力パターン映像の変形対象の変形を介して増強入力映像が生成され、入力パターン映像の変形対象の変形に対応する変形が出力パターン映像に適用されて増強出力映像が生成される。増強入力映像によるニューラルモデル531の実行結果に該当する結果映像が決定されれば、結果映像と増強出力映像との間の差が減少するようにニューラルモデル531がトレーニングされ得る。
オリジナル映像510及び増強映像520がニューラルモデル532の推論に使用される場合、オリジナル映像510及び増強映像520は、入力パターン映像又は出力パターン映像に該当する。ニューラルモデル532がニューラルフォワードモデルに該当する場合、オリジナル映像510及び増強映像520は入力パターン映像に該当し、ニューラルモデル532は入力パターン映像から出力パターン映像を推定することができる。ニューラルモデル532がニューラルバックワードモデルに該当する場合、オリジナル映像510及び増強映像520は出力パターン映像に該当し、ニューラルモデル532は出力パターン映像から入力パターン映像を推定することができる。
ニューラルモデル532がニューラルフォワードモデルに該当する場合、オリジナル映像510は入力パターン映像に該当する。オリジナル映像510の変形対象の変形を介して増強映像520が生成されてもよい。オリジナル映像510及び増強映像520でニューラルモデル532が実行され、実行結果に該当する結果映像が決定される。結果映像の組み合わせにより、フォワード工程の結果に該当するパターンが推定される。ニューラルモデル532がニューラルバックワードモデルに該当する場合、オリジナル映像510は出力パターン映像に該当する。増強作業を介して増強映像520が生成され、オリジナル映像510及び増強映像520でニューラルモデル532が実行されれば、実行結果に該当する結果映像が決定される。結果映像の組み合わせにより、バックワード補正の結果に該当するパターンが推定される。結果映像の組み合せのためにアンサンブル加重値が用いられてもよい。
図6は、一実施形態に係る意味論的コンポーネントの除去を通した増強過程を例示する図である。図6を参照すると、デザインパターン610に対する映像化作業によりオリジナル映像620が決定される。デザインパターン610は、ターゲット工程の適用対象に該当する入力パターン又はターゲット工程の適用結果に該当する出力パターンの3次元設計構造を示す。デザインパターン610は、細部的な多角形の構造物を介して3次元設計構造を表現することができる。デザインパターン610の映像化は、3次元設計に対する構造データを映像データでレンダリングする作業に該当する。
オリジナル映像620は、半導体パターンに対応するコンポーネントを含んでもよい。オリジナル映像620に対するコンポーネントの識別作業を介してオリジナル映像620のコンポーネントが識別され得る。コンポーネントの識別作業は、オリジナル映像620のピクセルのピクセル値に基づいて実行され得る。オリジナル映像620において、0でないピクセル値を有するピクセルが選択され、選択されたピクセルのうち互いに連結されているピクセルが1つのコンポーネントとして識別されてもよい。オリジナル映像620内の位置により各コンポーネントにラベルが付与されてもよい。図6は、コンポーネントに1~4のラベルが付与された例示を示す。kのラベルを有するコンポーネントは第kコンポーネントと呼ぶことができる。
オリジナル映像620に対する増強作業を介して増強映像631,632が生成されてもよい。増強作業は、変形対象の選択及び変形対象に対する変形作業を含む。各変形対象は、少なくとも1つのコンポーネントを含んでもよい。例えば、第1コンポーネントは第1変形対象に、第2コンポーネントは第2変形対象に、第3コンポーネントは第3変形対象に該当する。また、第1コンポーネント及び第2コンポーネントは第4変形対象に、第3コンポーネント及び第4コンポーネントは第5変形対象に該当する。
変形作業は、変形対象の除去、変形対象のスケール、変形対象のシフト、及び変形対象の回転のうち少なくとも一部を含んでもよい。但し、変形作業のタイプがこれに限定されることはない。互いに異なる変形対象に対して同じ変形作業が実行されたり、互いに異なる変形対象に対して互いに異なる変形作業が実行されたり、同じ変形対象に対して互いに異なる変形作業が実行されてもよい。増強映像631は、第2変形対象の除去に該当する増強作業の結果を示し、増強映像632は、第3変形対象の除去に該当する増強作業の結果を示す。
図7は、一実施形態に係る増強データを用いたニューラルモデルのトレーニング過程を例示する図である。図7を参照すると、オリジナル入力映像711の増強により増強入力映像712,713が生成され、オリジナル入力映像711及び/又は増強入力映像712,713に基づいてニューラルモデル700が実行される。オリジナル入力映像711及び増強入力映像712,713がニューラルモデル700に順に入力されてもよく、ニューラルモデル700の実行により実行結果映像721~723が生成されてもよい。左側の時間軸は、トレーニングが順に行われることを示す。ニューラルモデル700の並列的な実行がサポートされる場合、ニューラルモデル700の並列的な実行を介して、オリジナル入力映像711及び増強入力映像712,713による実行結果映像721,722,723が並列的に生成され得る。
オリジナル入力映像711に対応するオリジナル出力映像731がオリジナル映像で提供されれば、オリジナル出力映像731の増強により増強出力映像732,733が生成される。増強入力映像712,713の生成に利用された増強作業がオリジナル出力映像731に同一に適用され、その結果、増強出力映像732,733が生成され得る。例えば、オリジナル入力映像711の第2入力コンポーネントの除去を介して増強入力映像712が生成され、オリジナル入力映像711の第3入力コンポーネントの除去を介して増強入力映像713が生成されてもよい。対応増強作業として、オリジナル出力映像731の第2出力コンポーネントの除去を介して増強出力映像732が生成され、オリジナル出力映像731の第3出力コンポーネントの除去を介して増強出力映像733が生成されてもよい。コンポーネントの区分のために、入力映像のコンポーネントは入力コンポーネントと呼んでもよく、出力映像のコンポーネントは出力コンポーネントと呼んでもよい。
オリジナル出力映像731及び増強出力映像732,733は、GT(ground truth)として用いられてもよい。ニューラルモデル700は、実行結果とGTとの間の差が小さくなるようにトレーニングされる。ニューラルモデル700は、実行結果映像721とオリジナル出力映像731との間の差が小さくなるようにトレーニングされ、実行結果映像722と増強出力映像732との間の差が小さくなるようにトレーニングされ、実行結果映像723と増強出力映像733との間の差が小さくなるようにトレーニングされる。
1つのオリジナル映像セット(例えば、オリジナル入力映像711、オリジナル出力映像731)に対するデータ増強を介して数回のトレーニングが行われ、複数のオリジナル映像セットが提供される場合、より多くのトレーニングが行われる。これによって、半導体映像の取得コストによるトレーニングデータの確保問題を大きく解消できる。
図7は、オリジナル入力映像711が入力パターン映像に該当し、オリジナル出力映像731が出力パターン映像に該当する例示を示す。本例示において、ニューラルモデル700は、ニューラルフォワードモデルにトレーニングされてもよい。これとは異なり、オリジナル入力映像711が出力パターン映像に該当し、オリジナル出力映像731が入力パターン映像に該当し、この場合にニューラルモデル700は、ニューラルバックワードモデルにトレーニングされてもよい。
図8は、一実施形態に係る増強データを用いたニューラルモデルの推論過程を例示する図である。図8を参照すると、オリジナル入力映像811の増強により増強入力映像812,813が生成され、オリジナル入力映像811及び/又は増強入力映像812,813に基づいてニューラルモデル800が実行される。オリジナル入力映像811及び増強入力映像812,813がニューラルモデル800に順次入力され、ニューラルモデル800の実行により実行結果映像821~823が生成される。左側の時間軸は推論が順に行われることを示す。ニューラルモデル800の並列的な実行がサポートされる場合、ニューラルモデル800の並列的な実行を介してオリジナル入力映像811及び増強入力映像812,813による実行結果映像821,822,823が並列的に生成されてもよい。
実行結果映像821,822,823の組み合わせにより推定結果映像830が決定される。実行結果映像821,822,823は、一定の加重値に基づいて組み合せわせられてもよい。一実施形態によれば、ニューラルモデル800はアンサンブルモデルに該当し、実行結果映像821,822,823の組み合わせにアンサンブル加重値が用いられる。データ増強を介して様々な観点のデータが活用されることで、推論の正確度を向上させることができる。
図7は、ニューラルモデル800がニューラルフォワードモデルに該当する例示を示す。本例示で、オリジナル入力映像811は入力パターン映像に該当し、推定結果映像830は出力パターン映像に該当する。これとは異なり、ニューラルモデル800はニューラルバックワードモデルに該当する。この場合、オリジナル入力映像811は出力パターン映像に該当し、推定結果映像830は入力パターン映像に該当する。
図9は、一実施形態に係る半導体映像処理方法を例示するフローチャートである。図9を参照すると、半導体映像処理装置は、ステップS910において、半導体生産のための工程の適用対象に対応するオリジナル入力映像からオリジナル入力映像の半導体パターンの入力コンポーネントを識別し、ステップS920において、オリジナル入力映像から入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成し、ステップS930において、増強入力映像に基づいて工程によるパターン変形を推定するニューラルモデルを実行する。
ステップS920は、変形対象を除去して増強入力映像を生成するステップを含む。
変形対象の変形は変形対象の除去、変形対象のスケール、変形対象のシフト、及び変形対象の回転のうち少なくとも一部を含んでもよい。
オリジナル入力映像の変形対象に該当しない部分は、増強入力映像で保持され得る。
ステップS910は、オリジナル入力映像において0でないピクセル値を有し、互いに連結されているピクセルの1つのグループを入力コンポーネントの1つの入力コンポーネントとして識別するステップを含む。
半導体映像処理装置は、ニューラルモデルの実行結果に応じてニューラルモデルをトレーニングするステップをさらに行ってもよい。
半導体映像処理装置は、工程の適用結果に対応するオリジナル出力映像からオリジナル出力映像の半導体パターンの出力コンポーネントを識別するステップ、及びオリジナル入力映像の変形対象に対する変形に対応する変形をオリジナル出力映像の出力コンポーネントに適用して増強出力映像を生成するステップをさらに含んでもよい。ステップS930は、ニューラルモデルの実行結果に該当する結果映像と増強出力映像との間の差により、ニューラルモデルをトレーニングするステップを含んでもよい。
半導体映像処理装置は、オリジナル入力映像に基づいてニューラルモデルを実行するステップ、及びオリジナル入力映像に基づいたニューラルモデルの実行結果及び増強入力映像に基づいたニューラルモデルの実行結果を組み合わせて工程によるパターン変形を推定するステップをさらに含んでもよい。
工程は、現像工程及びエッチング工程のうち少なくとも1つを含んでもよい。
その他に、図9に示す半導体映像処理方法に、図1~図8、及び図10~図12の説明が適用されてもよい。
図10は、一実施形態に係るニューラルモデルのトレーニング方法を例示するフローチャートである。図10を参照すると、半導体映像処理装置は、ステップS1010において、半導体生産のための工程の適用対象に対応するオリジナル入力映像及び工程の適用結果に対応するオリジナル出力映像から、オリジナル入力映像の半導体パターンの入力コンポーネント及びオリジナル出力映像の半導体パターンの出力コンポーネントを識別し、ステップS1020において、入力コンポーネントと出力コンポーネントとの間のマッチング関係に基づいてコンポーネントの対を決定し、ステップS1030において、オリジナル入力映像及びオリジナル出力映像からコンポーネントの対の少なくとも1つを含む変形対象を除去して増強入力映像及び増強出力映像を生成し、ステップS1040において、増強入力映像及び増強出力映像に基づいて工程によるパターン変形を予測するニューラルモデルをトレーニングする。
その他に、図10の半導体映像処理方法に、図1~図9、図11、及び図12の説明が適用されてもよい。
図11は、一実施形態に係る半導体映像処理装置の構成を例示するブロック図である。図11を参照すると、半導体映像処理装置1100は、プロセッサ1110(例えば、1つ以上のプロセッサ)及びメモリ1120(例えば、1つ以上のメモリ)を含む。メモリ1120はプロセッサ1110に接続され、プロセッサ1110によって実行可能な命令語、プロセッサ1110が演算するデータ又はプロセッサ1110によって処理されたデータを格納してもよい。メモリ1120は、非一時的なコンピュータで読み出し可能な記録媒体、例えば、高速ランダムアクセスメモリ及び/又は非揮発性コンピュータ読み出し可能な格納媒体(例えば、1つ以上のディスク格納装置、フラッシュメモリ装置、又は、その他の非揮発性固体メモリ装置)を含んでもよい。
プロセッサ1110は、図1~図10、及び図12の動作を行うための命令語を実行する。例えば、プロセッサ1110は、半導体生産のための第1工程の適用対象に対応するオリジナル入力映像からオリジナル入力映像の半導体パターンの入力コンポーネントを識別し、オリジナル入力映像から入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成し、増強入力映像に基づいて第1工程によるパターン変形を推定するニューラルモデルを実行することができる。
その他に、半導体映像処理装置1110には図1~図10、及び図12の説明が適用されてもよい。
図12は、一実施形態に係る電子装置の構成を例示するブロック図である。図12を参照すると、電子装置1200は、プロセッサ1210(例えば、1つ以上のプロセッサ)、メモリ1220(例えば、1つ以上のメモリ)、カメラ1230、格納装置1240、入力装置1250、出力装置1260、及びネットワークインターフェース1270を含み、これは通信バス1280を介して通信することができる。例えば、電子装置1200は、移動電話、スマートフォン、PDA、ネットブック、タブレットコンピュータ、ラップトップコンピュータなどのようなモバイル装置、スマートウォッチ、スマートバンド、スマートメガネなどのようなウェアラブルデバイス、デスクトップ、サーバなどのようなコンピューティング装置、テレビ、スマートテレビ、冷蔵庫などのような家電製品、ドアラックなどのようなセキュリティー装置、自律走行車両、スマート車両などのような車両の少なくとも一部として実現されることができる。電子装置1200は、図11に示す半導体映像処理装置1110を構造的及び/又は機能的に含んでもよい。
プロセッサ1210は、電子装置1200内で実行するための機能及び命令語を実行する。例えば、プロセッサ1210は、メモリ1220又は格納装置1240に格納された命令語を処理してもよい。プロセッサ1210は、図1~図11を参照して説明された1つ以上の動作を行ってもよい。メモリ1220は、コンピュータで読み出し可能な格納媒体又はコンピュータで読み出し可能な格納装置を含んでもよい。メモリ1220は、プロセッサ1210により実行するための命令語を格納し、電子装置1200によってソフトウェア及び/又はアプリケーションが実行される間に関連情報を格納してもよい。
カメラ1230は、写真及び/又はビデオを撮影する。格納装置1240は、コンピュータで読み出し可能な格納媒体又はコンピュータ読み出し可能な格納装置を含む。格納装置1240は、メモリ1220よりもさらに多い量の情報を格納し、情報を長期間格納し得る。例えば、格納装置1240は、磁気ハードディスク、光ディスク、フラッシュメモリ、フロッピーディスク、又はこの技術分野で知られた他の形態の不揮発性メモリを含んでもよい。
入力装置1250は、キーボード及びマウスを通した伝統的な入力方式、及びタッチ入力、音声入力、及びイメージ入力のような新しい入力方式を介してユーザから入力を受信する。例えば、入力装置1250は、キーボード、マウス、タッチスクリーン、マイクロホン、又はユーザから入力を検出し、検出された入力を電子装置1200に伝達できる任意の他の装置を含んでもよい。出力装置1260は、視覚的、聴覚的、又は触覚的なチャネルを介してユーザに電子装置1200の出力を提供することができる。出力装置1260は、例えば、ディスプレイ、タッチスクリーン、スピーカ、振動発生装置、又はユーザに出力を提供できる任意の他の装置を含んでもよい。ネットワークインターフェース1270は、有線又は無線ネットワークを介して外部装置と通信できる。
以上で説明された実施形態は、ハードウェア構成要素、ソフトウェア構成要素、又はハードウェア構成要素及びソフトウェア構成要素の組み合せで具現される。例えば、本実施形態で説明した装置及び構成要素は、例えば、プロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサー、又は命令を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータをアクセス、格納、操作、処理、及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当技術分野で通常の知識を有する者は、処理装置が複数の処理要素及び/又は複数類型の処理要素を含むことが把握する。例えば、処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサのような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令、又はそのうちの一つ以上の組合せを含み、希望の通りに動作するよう処理装置を構成したり、独立的又は結合的に処理装置を命令することができる。ソフトウェア及び/又はデータは、処理装置によって解釈されたり処理装置に命令又はデータを提供するために、いずれかの類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、又は送信される信号波に永久的又は一時的に具体化することができる。ソフトウェアはネットワークに連結されたコンピュータシステム上に分散され、分散した方法で格納されたり実行され得る。ソフトウェア及びデータは一つ以上のコンピュータで読出し可能な記録媒体に格納され得る。
本実施形態による方法は、様々なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読み取り可能な記録媒体に記録される。記録媒体は、プログラム命令、データファイル、データ構造などを単独又は組み合せて含む。記録媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読み取り可能な記録媒体の例として、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD-ROM、DVDのような光記録媒体、フロプティカルディスクのような磁気-光媒体、及びROM、RAM、フラッシュメモリなどのようなプログラム命令を保存して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタなどを用いてコンピュータによって実行される高級言語コードを含む。
上記で説明したハードウェア装置は、本発明に示す動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成してもよく、その逆も同様である。
上述したように実施形態をたとえ限定された図面によって説明したが、当技術分野で通常の知識を有する者であれば、上記の説明に基づいて様々な技術的な修正及び変形を適用することができる。例えば、説明された技術が説明された方法と異なる順に実行され、及び/又は説明されたシステム、構造、装置、回路などの構成要素が説明された方法とは異なる形態に結合又は組み合わせられてもよく、他の構成要素又は均等物によって置き換え又は置換されたとしても適切な結果を達成することができる。
したがって、他の具現、他の実施形態および特許請求の範囲と均等なものも後述する特許請求範囲の範囲に属する。
610 デザインパターン
620 オリジナル映像
631 増強映像
632 増強映像

Claims (20)

  1. 半導体生産のための工程の適用対象に対応するオリジナル入力映像から前記オリジナル入力映像の半導体パターンの入力コンポーネントを識別するステップと、
    前記オリジナル入力映像から前記入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成するステップと、
    前記増強入力映像に基づいて前記工程によるパターン変形を推定するニューラルモデルを実行するステップと、
    を含む、半導体映像処理方法。
  2. 前記増強入力映像を生成するステップは、前記変形対象を除去して前記増強入力映像を生成するステップを含む、請求項1に記載の半導体映像処理方法。
  3. 前記変形対象の変形は、前記変形対象の除去、前記変形対象のスケール、前記変形対象のシフト、及び前記変形対象の回転のうち少なくとも一部を含む、請求項1に記載の半導体映像処理方法。
  4. 前記オリジナル入力映像の前記変形対象に該当しない部分は前記増強入力映像で保持される、請求項1に記載の半導体映像処理方法。
  5. 前記入力コンポーネントを識別するステップは、前記オリジナル入力映像において0でないピクセル値を有し、互いに連結されているピクセルの1つのグループを前記入力コンポーネントの1つの入力コンポーネントとして識別するステップを含む、請求項1に記載の半導体映像処理方法。
  6. 前記ニューラルモデルの実行結果に応じて、前記ニューラルモデルをトレーニングするステップをさらに含む、請求項1に記載の半導体映像処理方法。
  7. 前記半導体映像処理方法は、
    前記工程の適用結果に対応するオリジナル出力映像から前記オリジナル出力映像の半導体パターンの出力コンポーネントを識別するステップと、
    前記オリジナル入力映像の前記変形対象に対する変形に対応する変形を前記オリジナル出力映像の前記出力コンポーネントに適用して増強出力映像を生成するステップと、
    をさらに含み、
    前記ニューラルモデルをトレーニングするステップは、前記ニューラルモデルの実行結果に該当する結果映像と前記増強出力映像との間の差により前記ニューラルモデルをトレーニングするステップを含む、請求項6に記載の半導体映像処理方法。
  8. 前記半導体映像処理方法は、
    前記オリジナル入力映像に基づいて前記ニューラルモデルを実行するステップと、
    前記オリジナル入力映像に基づいた前記ニューラルモデルの実行結果及び前記増強入力映像に基づいた前記ニューラルモデルの実行結果を組み合わせて前記工程によるパターン変形を推定するステップをさらに含む、請求項1に記載の半導体映像処理方法。
  9. 前記工程は、現像工程及びエッチング工程のうち少なくとも1つを含む、請求項1に記載の半導体映像処理方法。
  10. 半導体生産のための工程の適用対象に対応するオリジナル入力映像及び前記工程の適用結果に対応するオリジナル出力映像から、前記オリジナル入力映像の半導体パターンの入力コンポーネント及び前記オリジナル出力映像の半導体パターンの出力コンポーネントを識別するステップと、
    前記入力コンポーネントと前記出力コンポーネントとの間のマッチング関係に基づいてコンポーネントの対を決定するステップと、
    前記オリジナル入力映像及び前記オリジナル出力映像から前記コンポーネントの対の少なくとも1つを含む変形対象を除去して増強入力映像及び増強出力映像を生成するステップと、
    前記増強入力映像及び前記増強出力映像に基づいて前記工程によるパターン変形を予測するニューラルモデルをトレーニングするステップと、
    を含む、トレーニング方法。
  11. ハードウェアと結合して請求項1~10のいずれか一項に記載の方法を実行させるためにコンピュータで読出し可能な記録媒体に格納されたコンピュータプログラム。
  12. 半導体生産のための工程の適用対象に対応するオリジナル入力映像から前記オリジナル入力映像の半導体パターンの入力コンポーネントを識別し、
    前記オリジナル入力映像から前記入力コンポーネントの少なくとも1つを含む変形対象を変形して増強入力映像を生成し、
    前記増強入力映像に基づいて前記工程によるパターン変形を推定するニューラルモデルを実行する1つ以上のプロセッサを含む、半導体映像処理装置。
  13. 前記1つ以上のプロセッサは、前記増強入力映像を生成するために前記変形対象を除去して前記増強入力映像を生成する、請求項12に記載の半導体映像処理装置。
  14. 前記変形対象の変形は、前記変形対象の除去、前記変形対象のスケール、前記変形対象のシフト、及び前記変形対象の回転のうち少なくとも一部を含む、請求項12に記載の半導体映像処理装置。
  15. 前記オリジナル入力映像の前記変形対象に該当しない部分は前記増強入力映像で保持される、請求項12に記載の半導体映像処理装置。
  16. 前記1つ以上のプロセッサは、前記入力コンポーネントを識別するために、前記オリジナル入力映像において0でないピクセル値を有し互いに連結されているピクセルの1つのグループを前記入力コンポーネントの1つの入力コンポーネントとして識別する、請求項12に記載の半導体映像処理装置。
  17. 前記1つ以上のプロセッサは、前記ニューラルモデルの実行結果に応じて前記ニューラルモデルをトレーニングする、請求項12に記載の半導体映像処理装置。
  18. 前記1つ以上のプロセッサは、
    前記工程の適用結果に対応するオリジナル出力映像から前記オリジナル出力映像の半導体パターンの出力コンポーネントを識別し、
    前記オリジナル入力映像の前記変形対象に対する変形に対応する変形を前記オリジナル出力映像の前記出力コンポーネントに適用して増強出力映像を生成し、
    前記ニューラルモデルの実行結果に該当する結果映像と前記増強出力映像との間の差により前記ニューラルモデルをトレーニングする、請求項17に記載の半導体映像処理装置。
  19. 前記1つ以上のプロセッサは、
    前記オリジナル入力映像に基づいて前記ニューラルモデルを実行し、
    前記オリジナル入力映像に基づいた前記ニューラルモデルの実行結果及び前記増強入力映像に基づいた前記ニューラルモデルの実行結果を組み合わせて前記工程によるパターン変形を推定する、請求項12に記載の半導体映像処理装置。
  20. 前記工程は、現像工程及びエッチング工程のうち少なくとも1つを含む、請求項12に記載の半導体映像処理装置。
JP2023180028A 2022-12-14 2023-10-19 半導体映像処理方法及び装置 Pending JP2024085379A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2022-0175047 2022-12-14
KR1020220175047A KR20240092360A (ko) 2022-12-14 2022-12-14 반도체 영상 처리 방법 및 장치

Publications (1)

Publication Number Publication Date
JP2024085379A true JP2024085379A (ja) 2024-06-26

Family

ID=87748312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023180028A Pending JP2024085379A (ja) 2022-12-14 2023-10-19 半導体映像処理方法及び装置

Country Status (5)

Country Link
US (1) US20240202910A1 (ja)
EP (1) EP4386655A1 (ja)
JP (1) JP2024085379A (ja)
KR (1) KR20240092360A (ja)
CN (1) CN118212120A (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10402524B2 (en) * 2017-05-08 2019-09-03 Globalfoundries Inc. Prediction of process-sensitive geometries with machine learning
US20200380362A1 (en) * 2018-02-23 2020-12-03 Asml Netherlands B.V. Methods for training machine learning model for computation lithography
KR20210133364A (ko) * 2020-04-28 2021-11-08 삼성전자주식회사 반도체 장치의 제조를 위한 방법 및 컴퓨팅 장치
KR20220080768A (ko) * 2020-12-07 2022-06-15 삼성전자주식회사 Opc 모델의 에러 검증 방법

Also Published As

Publication number Publication date
KR20240092360A (ko) 2024-06-24
US20240202910A1 (en) 2024-06-20
EP4386655A1 (en) 2024-06-19
CN118212120A (zh) 2024-06-18

Similar Documents

Publication Publication Date Title
US11557085B2 (en) Neural network processing for multi-object 3D modeling
JP6957624B2 (ja) ターゲット・ドメイン画像へのソース・ドメイン画像の変換
US11640518B2 (en) Method and apparatus for training a neural network using modality signals of different domains
CN111260025B (zh) 用于执行lstm神经网络运算的装置和运算方法
CN112132847A (zh) 模型训练方法、图像分割方法、装置、电子设备和介质
US20190164057A1 (en) Mapping and quantification of influence of neural network features for explainable artificial intelligence
US20210319090A1 (en) Authenticator-integrated generative adversarial network (gan) for secure deepfake generation
US12086212B2 (en) Burst image-based image restoration method and apparatus
EP3855388A1 (en) Image processing device and operation method thereof
Liu et al. Graphcspn: Geometry-aware depth completion via dynamic gcns
KR20220059194A (ko) 대상 객체에 적응적인 객체 추적 방법 및 장치
TW201921997A (zh) 行動設備的功率狀態控制
KR20240009759A (ko) 영상 복원 방법 및 장치
Liu et al. Task-oriented convex bilevel optimization with latent feasibility
KR102695528B1 (ko) 영상 개선 방법 및 장치
CN114387197A (zh) 一种双目图像处理方法、装置、设备和存储介质
KR20230092514A (ko) 렌더링 방법 및 장치
CN117315758A (zh) 面部表情的检测方法、装置、电子设备及存储介质
JP2024085379A (ja) 半導体映像処理方法及び装置
CN114972090A (zh) 图像处理模型的训练方法、图像处理方法及装置
JP2023078578A (ja) 画像処理装置、学習システム、および、学習方法
KR20220155882A (ko) 뉴럴 네트워크를 이용하는 데이터 처리 방법 및 장치
CN113821471A (zh) 神经网络的处理方法和电子装置
JP2024084691A (ja) 半導体パターンのための補正方法及び装置
TWI850463B (zh) 用於逐點迴旋的方法、處理系統及電腦可讀取媒體