TW202414282A - 學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法 - Google Patents

學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法 Download PDF

Info

Publication number
TW202414282A
TW202414282A TW112130932A TW112130932A TW202414282A TW 202414282 A TW202414282 A TW 202414282A TW 112130932 A TW112130932 A TW 112130932A TW 112130932 A TW112130932 A TW 112130932A TW 202414282 A TW202414282 A TW 202414282A
Authority
TW
Taiwan
Prior art keywords
processing
aforementioned
substrate
film
learning
Prior art date
Application number
TW112130932A
Other languages
English (en)
Inventor
德山真裕
Original Assignee
日商斯庫林集團股份有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日商斯庫林集團股份有限公司 filed Critical 日商斯庫林集團股份有限公司
Publication of TW202414282A publication Critical patent/TW202414282A/zh

Links

Abstract

本發明之學習裝置包含:實驗資料取得部,其在將藉由對形成有被膜之基板供給處理液而進行被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行被膜之處理之後,取得表示被膜之處理前後之膜厚差之第一處理量;及模型產生部,其對於包含與變動條件及處理條件對應之第一處理量之學習用資料進行機器學習,而產生對於在藉由基板處理裝置進行被膜之處理之前之基板上形成之被膜推測表示被膜之處理前後之膜厚差之第二處理量之學習模型;且學習模型包含第1卷積神經網路。

Description

學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法
本發明係關於一種學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法;係關於一種產生對由基板處理裝置執行之依照處理條件之處理進行模擬之學習模型之學習裝置、使用該學習模型來決定處理條件之資訊處理裝置、包含該資訊處理裝置之基板處理裝置、包含該資訊處理裝置及學習裝置之基板處理系統、由學習裝置執行之學習方法及由資訊處理裝置執行之處理條件決定方法。
在半導體製造製程中,存在洗淨製程。再洗淨製程中,藉由對基板供給藥液之蝕刻處理,進行形成於基板之被膜之膜厚調整。在該膜厚調整中,重要的是以基板之面成為均一之方式進行蝕刻處理,或者將基板之面藉由蝕刻處理而平坦化。在將蝕刻液自噴嘴噴出至基板之一部分之情形下,需要使噴嘴相對於基板沿徑向移動。
在專利文獻1中,記載藉由自噴嘴對基板噴出蝕刻液,而可對基板進行蝕刻處理之液體處理裝置。在專利文獻1中,記載如下之例:進行基板之中央區域之蝕刻處理,且為了將晶圓之面內溫度分佈均一化,而使蝕刻噴嘴一面在噴出之蝕刻液通過晶圓之中心之中央側之第1位置、與較該中央側之位置靠晶圓之周緣側之第2位置之間重複往復一面噴出蝕刻液。
蝕刻處理係處理被膜之處理量根據使噴嘴移動之動作之不同而變化之複雜之製程。又,藉由蝕刻處理而處理被膜之處理量,在處理基板之後明確。因此,設定使噴嘴移動之動作之作業需要技術者之試行錯誤。直至決定噴嘴之最佳之動作,需要極大之成本及時間。
[專利文獻1] 日本特開2015-103656號公報
[發明所欲解決之課題]
另一方面,期望使噴嘴移動之動作更複雜化。使噴嘴移動之動作係表示伴隨著時間之經過而變化之位置之時間序列資料。若使噴嘴移動之動作複雜化,則採樣間隔變短,故時間序列資料之維數變多。一般而言,若學習用資料之維數變多,則機器學習所需之資料數呈指數函數性增加。因此,因學習用資料之維數變多,故難以將藉由機器學習獲得之學習模型最佳化。又,蝕刻處理因複雜之製程,而適宜於作為目標之處理量之噴嘴之動作不限於1個,有時存在複數個。
本發明之目的之一在於提供一種適宜於為了處理基板而對伴隨著時間之經過而變化之條件進行機器學習之學習裝置、學習方法及基板處理系統。
又,本發明之又一目的在於提供一種可對處理基板之複雜之製程之處理結果提出複數個處理條件之資訊處理裝置、基板處理裝置、基板處理系統及處理條件決定方法。 [解決課題之技術手段]
本發明之一態樣之學習裝置包含:實驗資料取得部,其在將藉由對形成有被膜之基板供給處理液而進行被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行被膜之處理之後,取得表示被膜之處理前後之膜厚差之第一處理量;及模型產生部,其對於包含與變動條件及處理條件對應之第一處理量之學習用資料進行機器學習,而產生對於在被基板處理裝置進行被膜之處理之前之基板上形成之被膜推測表示被膜之處理前後之膜厚差之第二處理量之學習模型;且學習模型包含第1卷積神經網路。
本發明之又一態樣之資訊處理裝置係管理基板處理裝置者,基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行被膜之處理,且該資訊處理裝置包含:處理條件決定部,其使用對於在被基板處理裝置進行被膜之處理之前之基板上形成之被膜推測表示被膜之處理前後之膜厚差之第二處理量之學習模型,決定用於驅動基板處理裝置之處理條件;且學習模型包含第1卷積神經網路,係對於包含基板處理裝置進行被膜之處理之處理條件所含之變動條件、及表示在被基板處理裝置進行被膜之處理之基板上形成之被膜之處之前後之膜厚差之第一處理量之學習用資料進行機器學習之推論模型;處理條件決定部將假定之變動條件賦予學習模型,在由學習模型推測出之第二處理量滿足容許條件時,將包含假定之變動條件之處理條件決定為用於驅動基板處理裝置之處理條件。
本發明之再一態樣之基板處理系統係管理基板處理裝置者,其包含學習裝置及資訊處理裝置,基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行被膜之處理;該學習裝置包含:實驗資料取得部,其在將基板處理裝置以處理條件進行驅動而進行形成於基板上之被膜之處理之後,取得表示被膜之處理前後之膜厚差之第一處理量;及模型產生部,其對於包含與變動條件及處理條件對應之第一處理量之學習用資料進行機器學習,而產生對於在被基板處理裝置進行被膜之處理之前之基板上形成之被膜推測表示被膜之處理前後之膜厚差之第二處理量之學習模型;且學習模型包含第1卷積神經網路;資訊處理裝置包含處理條件決定部,其使用由學習裝置產生之學習模型,決定用於驅動基板處理裝置之處理條件;處理條件決定部對由學習裝置產生之學習模型賦予假定之變動條件,在由學習模型推測出之第二處理量滿足容許條件時,將包含假定之變動條件之處理條件決定為用於驅動基板處理裝置之處理條件。
本發明之再一態樣之學習方法使電腦執行如下處理:在將藉由對形成有被膜之基板供給處理液而進行被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行被膜之處理之後,取得表示被膜之處理前後之膜厚差之第一處理量;及對於包含與變動條件及處理條件對應之第一處理量之學習用資料進行機器學習,而產生對於在被基板處理裝置進行被膜之處理之前之基板上形成之被膜推測表示被膜之處理前後之膜厚差之第二處理量之學習模型;且學習模型包含第1卷積神經網路。
本發明之再一態樣之處理條件決定方法係由管理基板處理裝置之電腦執行者,基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行被膜之處理,且該處理條件決定方法包含如下處理:使用對於在被基板處理裝置進行被膜之處理之前之基板上形成之被膜推測表示被膜之處理前後之膜厚差之第二處理量之學習模型,決定用於驅動基板處理裝置之處理條件;且學習模型包含第1卷積神經網路,係對於包含基板處理裝置進行被膜之處理之處理條件所含之變動條件、及表示在被基板處理裝置進行被膜之處理之基板上形成之被膜之處理前後之膜厚差之第一處理量之學習用資料進行機器學習之推論模型;決定處理條件之處理包含如下處理:將假定之變動條件賦予學習模型,在由學習模型推測出之第二處理量滿足容許條件時,將包含假定之變動條件之處理條件決定為用於驅動基板處理裝置之處理條件。 [發明之效果]
提供一種適宜於為了處理基板而對伴隨著時間之經過而變化之條件進行機器學習之學習裝置、學習方法及基板處理系統。
提供一種可對處理基板之複雜之製程之處理結果提出複數個處理條件之資訊處理裝置、基板處理裝置、基板處理系統及處理條件決定方法。
以下,對於本發明之一實施形態之基板處理系統一面參照圖式一面詳細地進行說明。在以下之說明中,基板係指半導體基板(半導體晶圓)、液晶顯示裝置或有機EL(Electro Luminescence,電致發光)顯示裝置等之FPD(Flat Panel Display,平板顯示器)用基板、光碟用基板、磁碟用基板、光磁碟用基板、光罩用基板、陶瓷基板或太陽能電池用基板等。
1.基板處理系統之整體構成 圖1係用於說明本發明之一實施形態之基板處理系統之構成之圖。圖1之基板處理系統1包含資訊處理裝置100、學習裝置200及基板處理裝置300。學習裝置200例如係伺服器,資訊處理裝置100例如係個人電腦。
學習裝置200及資訊處理裝置100使用於管理基板處理裝置300。再者,學習裝置200及資訊處理裝置100管理之基板處理裝置300並不限定於1台,可管理複數台基板處理裝置300。
在本實施形態之基板處理系統1中,資訊處理裝置100、學習裝置200及基板處理裝置300相互藉由有線或無線之通訊線或通訊線路網而連接。資訊處理裝置100、學習裝置200及基板處理裝置300可分別連接於網路,可相互進行資料之收發。網路例如使用區域網路(LAN)或廣域網路(WAN)。又,網路可為網際網路。又,資訊處理裝置100與基板處理裝置300以專用之通訊線路網連接。網路之連接形態可為有線連接,亦可為無線連接。
再者,學習裝置200與基板處理裝置300及資訊處理裝置100未必一定由通訊線或通訊線路網連接。該情形下,在基板處理裝置300中產生之資料可經由記錄媒體交遞至學習裝置200。又,在學習裝置200中產生之資料可經由記錄媒體交遞至資訊處理裝置100。
在基板處理裝置300,設置未圖示之顯示裝置、聲音輸出裝置及操作部。基板處理裝置300依照基板處理裝置300之預設之處理條件(處理製程條件)而運轉。
2.基板處理裝置之概要 基板處理裝置300包含控制裝置10、及複數個基板處理單元WU。控制裝置10控制複數個基板處理單元WU。複數個基板處理單元WU藉由對形成有被膜之基板W供給處理液而處理基板。處理液包含蝕刻液,基板處理單元WU執行蝕刻處理。蝕刻液係藥液。蝕刻液例如係氟硝酸(氟酸(HF)與硝酸(HNO3)之混合液)、氟酸、緩衝氫氟酸(BHF)、氟化銨、HFEG(氟酸與乙二醇之混合液)、或燐酸(H3PO4)。
基板處理單元WU包含:旋轉卡盤SC、旋轉馬達SM、噴嘴311、及噴嘴移動機構301。旋轉卡盤SC水平地保持基板W。旋轉馬達SM具有第1旋轉軸AX1。第1旋轉軸AX1沿上下方向延伸。旋轉卡盤SC安裝於旋轉馬達SM之第1旋轉軸AX1之上端部。在旋轉馬達SM旋轉時,旋轉卡盤SC以第1旋轉軸AX1為中心而旋轉。旋轉馬達SM係步進馬達。保持於旋轉卡盤SC之基板W以第1旋轉軸AX1為中心而旋轉。因此,基板W之旋轉速度與步進馬達之旋轉速度相同。再者,在設置產生表示旋轉馬達之旋轉速度之旋轉速度信號之編碼器之情形下,可根據由編碼器產生之旋轉速度信號取得基板W之旋轉速度。該情形下,旋轉馬達可使用步進馬達以外之馬達。
噴嘴311對基板W供給蝕刻液。噴嘴311自未圖示之蝕刻液供給部被供給蝕刻液,並向旋轉中之基板W噴出蝕刻液。
噴嘴移動機構301使噴嘴311沿大致水平方向移動。具體而言,噴嘴移動機構301具有:具有第2旋轉軸AX2之噴嘴馬達303、及噴嘴臂305。噴嘴馬達303以第2旋轉軸AX2沿著大致鉛直方向之方式配置。噴嘴臂305具有直線狀延伸之長度形狀。噴嘴臂305之一端以噴嘴臂305之長度方向成為與第2旋轉軸AX2不同之方向之方式安裝於第2旋轉軸AX2之上端。於噴嘴臂305之另一端,噴嘴311以其噴出口朝向下方之方式而安裝。
在噴嘴馬達303動作時,噴嘴臂305以第2旋轉軸AX2為中心在水平面內旋轉。藉此,安裝於噴嘴臂305之另一端之噴嘴311以第2旋轉軸AX2為中心沿水平方向移動(迴旋)。噴嘴311一面沿水平方向移動一面向基板W噴出蝕刻液。噴嘴馬達303例如係步進馬達。
控制裝置10包含CPU(中央運算處理裝置)及記憶體,藉由CPU執行記憶於記憶體之程式,而控制基板處理裝置300之整體。控制裝置10控制旋轉馬達SM及噴嘴馬達303。
學習裝置200自基板處理裝置300輸入實驗資料,使用實驗資料使學習模型進行機器學習,並將學習畢之學習模型輸出至資訊處理裝置100。
資訊處理裝置100使用學習畢之學習模型,對基板處理裝置300接下來進行處理之預定之基板,決定用於處理基板之處理條件。資訊處理裝置100將決定之處理條件輸出至基板處理裝置300。
圖2顯示資訊處理裝置之構成之一例之圖。參照圖2,資訊處理裝置100係由CPU 101、RAM(隨機存取記憶體)102、ROM(唯讀記憶體)103、記憶裝置104、操作部105、顯示裝置106及輸入輸出I/F(介面)107構成。CPU 101、RAM 102、ROM 103、記憶裝置104、操作部105、顯示裝置106及輸入輸出I/F 107連接於匯流排108。
RAM 102作為CPU 101之作業區域而使用。於ROM 103記憶有系統程式。記憶裝置104包含硬碟或半導體記憶體等記憶媒體,記憶程式。程式可記憶於ROM 103或其他外部記憶裝置。
於記憶裝置104可裝卸CD-ROM 109。作為記憶CPU 101執行之程式之記錄媒體,並不限於CD-ROM 109,亦可為光碟(MO(Magnetic Optical Disc,磁光碟)/MD(Mini Disc,迷你磁碟)/DVD(Digital Versatile Disk,數位多功能光碟))、IC卡、光卡、遮罩ROM、EPROM(Erasable Programmable ROM,可抹除可編輯ROM)等半導體記憶體等之媒體。進而,亦可由CPU 101自連接於網路之電腦下載程式並記憶於記憶裝置104,或由連接於網路之電腦將程式寫入記憶裝置104,將記憶於記憶裝置104之程式載入RAM 102並由CPU 101執行。此處所言之程式不僅為可由CPU 101直接執行之程式,亦包含源程式、經壓縮處理之程式、經密碼化之程式等。
操作部105係鍵盤、滑鼠或觸控面板等輸入器件。使用者可藉由操作操作部105,而對資訊處理裝置100賦予規定之指示。顯示裝置106係液晶顯示裝置等顯示器件,顯示用於受理使用者之指示之GUI(Graphical User Interface,圖形使用者介面)等。輸入輸出I/F 107連接於網路。
圖3係顯示學習裝置之構成之一例之圖。參照圖3,學習裝置200由CPU 201、RAM 202、ROM 203、記憶裝置204、操作部205、顯示裝置206及輸入輸出I/F 207構成。CPU 201、RAM 202、ROM 203、記憶裝置204、操作部205、顯示裝置206及輸入輸出I/F 207連接於匯流排208。
RAM 202作為CPU 201之作業區域而使用。在ROM 203中,記憶有系統程式。記憶裝置204包含硬碟或半導體記憶體等記憶媒體,記憶程式。程式可記憶於ROM 203或其他外部記憶裝置。於記憶裝置204可裝卸CD-ROM 209。
操作部205係鍵盤、滑鼠或觸控面板等輸入器件。輸入輸出I/F 207連接於網路。
3.基板處理系統之功能構成 圖4係顯示基板處理系統之功能性之構成之一例之圖。參照圖4,基板處理裝置300所含之控制裝置10控制基板處理單元WU,依照處理條件而處理基板W。處理條件係在預設之處理時間之期間處理基板W之條件。處理時間係對針對基板之處理而決定之時間。在本實施形態中,處理時間係噴嘴311對基板W噴出蝕刻液之期間之時間。
處理條件在本實施形態中,包含蝕刻液之溫度、蝕刻液之濃度、蝕刻液之流量、基板W之轉速、噴嘴311與基板W之相對位置。處理條件包含伴隨著時間之經過而變動之變動條件。在本實施形態中,變動條件係噴嘴311與基板W之相對位置。相對位置以噴嘴馬達303之旋轉角度表示。處理條件包含伴隨著時間之經過而不變動之固定條件。在本實施形態中,固定條件係蝕刻液之溫度、蝕刻液之濃度、蝕刻液之流量、基板W之轉速。
學習裝置200使學習模型學習學習用資料,產生根據處理條件而推測蝕刻輪廓之推論模型。以下,將學習裝置200產生之推論模型稱為預測器。
學習裝置200包含:實驗資料取得部261、預測器產生部265、及預測器發送部267。學習裝置200具備之功能藉由學習裝置200所含之CPU 201執行儲存於RAM 202之學習程式,而藉由CPU 201來實現。
實驗資料取得部261自基板處理裝置300取得實驗資料。實驗資料包含基板處理裝置300實際處理基板W時所使用之處理條件、及形成於基板W之被膜之處理前後之膜厚特性。膜厚特性係以形成於基板W之被膜在基板W之徑向上不同之複數個位置各者處之膜厚表示。
圖5係顯示膜厚特性之一例之圖。參照圖5,橫軸表示基板之半徑方向之位置,縱軸表示膜厚。橫軸之原點表示基板之中心。在藉由基板處理裝置300處理之前之基板W上形成之被膜之膜厚係以實線表示。藉由執行藉由基板處理裝置300依照處理條件供給蝕刻液之處理,而調整在基板W上形成之被膜之膜厚。在藉由基板處理裝置300處理之後之基板W上形成之被膜之膜厚係以虛線表示。
在藉由基板處理裝置300處理之前之基板W上形成之被膜之膜厚與在藉由基板處理裝置300處理之後之基板W上形成之被膜之膜厚之差係處理量(蝕刻量)。處理量表示藉由利用基板處理裝置300供給蝕刻液之處理而減少之膜之厚度。將處理量之徑向之分佈稱為蝕刻輪廓。蝕刻輪廓係以基板W之徑向上不同之複數個位置各者之處理量表示。
又,期望藉由基板處理裝置300形成之膜厚在基板W之整面上為均一。因此,對藉由基板處理裝置300執行之處理,設定成為目標之目標膜厚。目標膜厚以一點鏈線表示。背離特性係在藉由基板處理裝置300處理之後之基板W上形成之被膜之膜厚與目標膜厚之差分。背離特性包含基板W之徑向上之複數個位置各者之差分。
返回圖4,於預測器產生部265自實驗資料取得部261輸入有實驗資料。預測器產生部265藉由使神經網路使用學習用資料進行有示教學習而產生預測器。
具體而言,學習用資料包含輸入資料及正確解資料。輸入資料包含實驗資料之處理條件所含之變動條件、及實驗資料所含之處理條件之變動條件以外之固定條件。正確解資料包含蝕刻輪廓。蝕刻輪廓係實驗資料所含之處理前之被膜之膜厚特性、與實驗資料所含之處理後之被膜之膜厚特性之差。該正確解資料所含之蝕刻輪廓係第一處理量之一例。預測器產生部265將輸入資料輸入於成為預測器之源之學習模型,以學習模型之輸出與正確解資料之差變小之方式決定學習模型之參數。預測器產生部265將組入有設定在學習畢之學習模型之參數之學習畢模型作為預測器而產生。預測器係在學習畢模型中組入有經設定之參數之推論程式。預測器產生部265將預測器發送至資訊處理裝置100。
圖6係說明學習模型之圖。參照圖6,學習模型之A層~C層自輸入側向輸出側(自上層向下層)依序設置。在A層設置有第1卷積神經網路CNN1,在B層設置有全結合神經網路NN,在C層設置有第2卷積神經網路CNN2。
在第1卷積神經網路CNN1,輸入有變動條件。在全結合神經網路NN,輸入有第1卷積神經網路CNN1之輸出及固定條件。在第2卷積神經網路CNN2,輸入有全結合神經網路NN之輸出。
第1卷積神經網路CNN1包含複數個層。在本實施形態中,第1卷積神經網路CNN1包含3個層。在第1卷積神經網路CNN1內,自輸入側(上層側)向輸出側(下層側)依序設置第1層L1、第2層L2及第3層L3。再者,在本實施形態中,對於作為複數個層而包含3個層之情形進行說明,但亦可包含3個以上之層。
第1層L1、第2層L2及第3層L3分別包含卷積層及池化層。卷積層具有複數個過濾器。在卷積層中,應用複數個過濾器。池化層壓縮卷積層之輸出。第2層L2之卷積層之過濾器之數目設定為第1層L1之卷積層之過濾器之數目之2倍。第3層L3之卷積層之過濾器之數目設定為第2層L2之卷積層之過濾器之數目之2倍。因此,可根據變動條件儘可能地擷取較多之特徵。此處,變動條件包含伴隨著時間之經過而變動之噴嘴相對於基板W之相對位置。因第1卷積神經網路CNN1使用複數個過濾器擷取特徵,故對於噴嘴相對於基板W之相對位置之變化,更多地擷取包含時間之要素之特徵。再者,此處,顯示第2層L2之卷積層之過濾器之數目設定為第1層L1之卷積層之過濾器之數目之2倍之例,但可非為2倍。第2層L2之卷積層之過濾器之數目只要係較第1層L1之卷積層之過濾器之數目多之數目即可。又,第3層L3之卷積層之過濾器之數目可非為第2層L2之卷積層之過濾器之數目之2倍。第3層L3之卷積層之過濾器之數目只要係較第2層L2之卷積層之過濾器之數目多之數目即可。
全結合神經網路NN設置有複數個層。在圖6之例中,全結合神經網路NN設置輸入側之ba層及輸出側之bb層之二個層。在圖6之例中,在各層含有複數個節點。在圖6之例中,顯示在ba層為5個節點、在bb層有4個節點,但節點之數目並不限定於此。ba層之節點之數目設定為等於第1卷積神經網路CNN1之輸出側之節點之數目與固定條件之數目之和。bb層之節點之數目設定為等於第2卷積神經網路CNN2之輸入側之節點之數目。ba層之節點之輸出連接於bb層之節點之輸入。參數包含對於ba層之節點之輸出進行加權之係數。亦可在ba層與bb層之間設置1個或複數個中間層。
第2卷積神經網路CNN2包含複數個層。在本實施形態中,第2卷積神經網路CNN2包含3個層。在第2卷積神經網路CNN2中,自輸入側(上層側)向輸出側(下層側)依序設置第4層L4、第5層L5及第6層L6。再者,在本實施形態中,對於作為複數個層而包含3個層之情形進行說明,但亦可包含3個以上之層。
第4層L4、第5層L5及第6層L6分別包含卷積層及池化層。卷積層具有複數個過濾器。在卷積層中,應用複數個過濾器。池化層壓縮卷積層之輸出。第5層L5之卷積層之過濾器之數目設定為第4層L4之卷積層之過濾器之數目之1/2倍。又,第6層L6之卷積層之過濾器之數目設定為第5層L5之卷積層之過濾器之數目之1/2倍。因此,可根據蝕刻輪廓儘可能擷取較多之特徵。蝕刻輪廓係以基板W之徑向之複數個位置P[n](n為1以上之整數)各者處之處理前後之膜厚之差E[n]表示。因此,蝕刻輪廓中之複數個處理量伴隨著基板W之徑向上之位置之變化而變動。第2卷積神經網路CNN2使用複數個過濾器來擷取特徵,故對於處理量之變化更多地擷取包含基板W之徑向之位置之要素之特徵。再者,此處顯示第5層L5之卷積層之過濾器之數目設定為第4層L4之卷積層之過濾器之數目之1/2倍之例,但亦可非為1/2倍。第5層L5之卷積層之過濾器之數目只要係較第4層L4之卷積層之過濾器之數目少之數目即可。又,第6層L6之卷積層之過濾器之數目亦可非為第5層L5之卷積層之過濾器之數目之1/2倍。第6層L6之卷積層之過濾器之數目只要係較第5層L5之卷積層之過濾器之數目少之數目即可。
在對學習模型輸入作為輸入資料之變動條件及固定條件時,學習模型推測蝕刻輪廓。由該學習模型推測之蝕刻輪廓,係第二處理量之一例。將由學習模型推測之蝕刻輪廓、與正確解資料之蝕刻輪廓之差分作為誤差而算出。然後,學習模型以該誤差變小之方式進行學習。例如,學習模型使用誤差反向傳播法,更新第1卷積神經網路CNN1具有之複數個過濾器、由全結合神經網路NN具有之複數個節點決定之權重參數及第2卷積神經網路CNN2具有之複數個過濾器各者之值。
返回圖4,資訊處理裝置100包含:處理條件決定部151、預測器接收部155、預測部159、評估部161、及處理條件發送部163。資訊處理裝置100具備之功能藉由由資訊處理裝置100所含之CPU 101執行儲存於RAM 102之處理條件決定程式,而藉由CPU 101來實現。預測器接收部155接收自學習裝置200發送之預測器,並將接收到之預測器輸出至預測部159。
處理條件決定部151決定藉由基板處理裝置300對成為處理之對象之基板W之處理條件,並將處理條件所含之變動條件與處理條件所含之固定條件輸出至預測部159。
預測部159根據變動條件及固定條件而推測蝕刻輪廓。具體而言,預測部159將自處理條件決定部151輸入之變動條件及固定條件輸入預測器,並將預測器輸出之蝕刻輪廓輸出至評估部161。
評估部161對自預測部159輸入之蝕刻輪廓進行評估,並將評估結果輸出至處理條件決定部151。詳細而言,評估部161取得基板處理裝置300設為處理對象之預定之基板W之處理前之膜厚特性。評估部161根據自預測部159輸入之蝕刻輪廓、及基板W之處理前之膜厚特性而算出在蝕刻處理後預測之膜厚特性,並與作為目標之膜厚特性進行比較。若比較之結果滿足評估基準,則將由處理條件決定部151決定之處理條件輸出至處理條件發送部163。例如,評估部161算出背離特性,並判斷背離特性是否滿足評估基準。背離特性係蝕刻處理後之基板W之膜厚特性與目標膜厚特性之差分。評估基準可任意設定。例如,評估基準在背離特性中可為差分之最大值為臨限值以下,亦可為差分之平均為臨限值以下。
處理條件發送部163將藉由處理條件決定部151決定之處理條件發送至基板處理裝置300之控制裝置10。基板處理裝置300依照處理條件而處理基板W。
評估部161在評估結果不滿足評估基準時,將評估結果輸出至處理條件決定部151。評估結果包含在蝕刻處理後預測之膜厚特性或在蝕刻處理後預測之膜厚特性與目標膜厚特性之差分。
處理條件決定部151與自評估部161輸入有評估結果相應地,決定用於使預測部159推測之新的處理條件。處理條件決定部151使用實驗計劃法、配對法或貝葉斯推定,自預先準備之複數個變動條件中選擇1個,將包含所選擇之變動條件及固定條件之處理條件作為用於使預測部159推測之新的處理條件而決定。
處理條件決定部151亦可使用貝葉斯推定來搜索處理條件。在由評估部161輸出複數個評估結果時,處理條件與評估結果之組為複數個。根據複數個組各者之蝕刻輪廓之傾向,搜索被膜之膜厚成為均一之處理條件或在蝕刻處理後預測之膜厚特性與目標膜厚特性之差分成為最小之處理條件。
具體而言,處理條件決定部151以將目的函數最小化之方式搜索處理條件。目的函數係表示被膜之膜厚之均一性之函數或表示被膜之膜厚特性與目標膜厚特性之一致性之函數。例如,目的函數係以參數表示蝕刻處理後預測之膜厚特性與目標膜厚特性之差分之函數。此處之參數係對應之變動條件。對應之變動條件係使用於預測器推測蝕刻輪廓之變動條件。處理條件決定部151自複數個變動條件中選擇作為藉由搜索而決定之參數之變動條件,決定包含所選擇之變動條件及固定條件之新的處理條件。
圖7係顯示學習處理之流程之一例之流程圖。學習處理係藉由學習裝置200所含之CPU 201執行儲存於RAM 202之學習程式,而藉由CPU 201來執行之處理。
參照圖7,學習裝置200所含之CPU 201取得實驗資料。CPU 201控制輸入輸出I/F 107,自基板處理裝置300取得實驗資料(步驟S11)。實驗資料可藉由以記憶裝置104讀取記錄於CD-ROM 209等記錄媒體之實驗資料而取得。此處取得之實驗資料為複數個。實驗資料包含處理條件、及形成於基板W之被膜之處理前後之膜厚特性。膜厚特性以在基板W之徑向上不同之複數個位置各者處之形成於基板W之被膜之膜厚表示。
在之後之步驟S12中,選擇應設為處理對象之實驗資料,處理前進至步驟S13。在步驟S13中,將實驗資料所含之變動條件、固定條件、及蝕刻輪廓設定於學習用資料。蝕刻輪廓係實驗資料所含之處理前之被膜之膜厚特性、與實驗資料所含之處理後之被膜之膜厚特性之差分。學習用資料包含輸入資料與正確解資料。在本實施形態中,將實驗資料所含之變動條件與固定條件設定於輸入資料,將蝕刻輪廓設定於正確解資料。
在之後之步驟S14中,CPU 201使學習模型進行機器學習,將處理前進至步驟S15。將輸入資料輸入學習模型,以學習模型之輸出與正確解資料之誤差變小之方式決定過濾器及參數。藉此,調整學習模型之過濾器及參數。
在步驟S15中,判斷調整是否完成。預先準備使用於學習模型之評估之學習用資料,以評估用之學習用資料來評估學習模型之性能。在評估結果滿足預先決定之評估基準時,判斷為調整完成。若評估結果不滿足評估基準(步驟S15中為否),處理返回步驟S12,若評估結果滿足評估基準(步驟S15中為是),處理前進至步驟S16。
在處理返回步驟S12時,在步驟S12中,選擇在步驟S11中所取得之實驗資料之中未選擇為處理對象之實驗資料。在步驟S12~步驟S15之循環中,CPU 201使用複數個學習用資料使學習模型進行機器學習。藉此,學習模型之過濾器及參數調整為適切之值。在步驟S16中,記憶有學習畢模型之學習參數。在步驟S17中,將學習畢模型設定於預測器,朝資訊處理裝置100發送預測器,處理結束。CPU 201控制輸入輸出I/F 107,將預測器發送至資訊處理裝置100。
圖8係顯示處理條件決定處理之流程之一例之流程圖。處理條件決定處理係藉由由資訊處理裝置100所含之CPU 101執行儲存於RAM 102之處理條件決定程式,而藉由CPU 101來執行之處理。
參照圖8,資訊處理裝置100所含之CPU 101自預先準備之複數個變動條件中選擇1個(步驟S21),將處理前進至步驟S22。使用實驗計劃法、配對法或貝葉斯推定等,自預先準備之複數個變動條件中選擇1個。
在步驟S22中,使用預測器,根據變動條件與固定條件而推測蝕刻輪廓,處理前進至步驟S23。對預測器輸入變動條件及固定條件,取得預測器輸出之蝕刻輪廓。在步驟S23中,將處理後之膜厚特性與目標膜厚特性進行比較。根據基板處理裝置300設為處理之對象之基板W之處理前之膜厚特性、及在步驟S22中推測出之蝕刻輪廓,算出處理基板W之後之膜厚特性。然後,將處理後之膜厚特性與目標膜厚特性進行比較。此處,算出處理基板W之後之膜厚特性與目標膜厚特性之差分。
在步驟S24中,判斷比較結果是否滿足評估基準。若比較結果滿足評估基準(步驟S24中為是),處理前進至步驟S25,否則處理返回步驟S21。例如,在差分之最大值為臨限值以下時判斷為滿足評估基準。又,在差分之平均為臨限值以下時判斷為滿足評估基準。
在步驟S25中,對用於驅動基板處理裝置300之處理條件之候選,設定包含在步驟S21中選擇之變動條件之處理條件,處理前進至步驟S26。在步驟S26中,判斷是否受理到搜索之結束指示。若由操作資訊處理裝置100之使用者受理到結束指示,則處理前進至步驟S27,否則處理返回步驟S21。再者,亦可改變為由使用者輸入之結束指示,判斷預先決定之數目之處理條件是否設定於候選。
在步驟S27中,自設定於候選之1個以上之處理條件中決定1個,處理前進至步驟S28。亦可由操作資訊處理裝置100之使用者自設定於候選之1個以上之處理條件中選擇1個。因此,使用者之選擇之範圍變寬。又,亦可自複數個處理條件所含之變動條件中自動地選擇噴嘴動作最簡略之變動條件。噴嘴動作最簡略之變動條件,例如可設為變速點之數目為最少之變動條件。藉此,可對於針對處理基板W之複雜之噴嘴動作之處理結果提出複數個變動條件。若自複數個變動條件中選擇噴嘴之控制容易之變動條件,則基板處理裝置300之控制變得容易。
在步驟S28中,將包含在步驟S28中決定之變動條件之處理條件發送至基板處理裝置300,處理結束。CPU 101控制輸入輸出I/F 107,將處理條件發送至基板處理裝置300。基板處理裝置300在自資訊處理裝置100接收到處理條件時,依照該處理條件來處理基板W。
4.具體例 在本實施形態中,變動條件係噴嘴動作之處理時間為60秒、以採樣間隔0.01秒採樣之時間序列資料。變動條件係由6001個值構成。因此,變動條件可表現複雜之噴嘴動作。特別是,可以變動條件正確地表現將變更噴嘴之移動速度之變速點之數目設為比較多之噴嘴動作。其相反面,因變動條件之維數多,故在使全結合神經網路之模型對變動條件之時間序列資料進行機器學習時,有時發生過擬合。
本實施形態之預測器產生部265使圖6所示之包含卷積神經網路之學習模型對於變動條件與固定條件進行機器學習。發明人藉由實驗發現:將由表示複雜之噴嘴動作之6001個值構成之變動條件與固定條件,作為藉由使圖6所示之學習模型進行學習之預測器預測之蝕刻輪廓而獲得所期望之結果。
又,在本實施形態中,在處理條件決定部151搜索處理條件時,因搜索與蝕刻輪廓不同者對應之處理條件,故選擇與複數個不同之蝕刻輪廓對應之處理條件。因此,處理條件決定部151可有效率地自複數個處理條件中搜索預測成為目標之蝕刻輪廓之處理條件。
再者,對於將採樣間隔設為0.01秒之例進行了說明,但採樣間隔並不限定於此。可設為較其長之採樣間隔,亦可設為較其短之採樣間隔。例如,採樣間隔可設為0.1秒,亦可設為0.005秒。
5.其他實施形態 (1) 在上述實施形態中,學習裝置200基於學習用資料,產生預測器。學習裝置200可對預測器進行追加學習。學習裝置200在產生預測器之後,取得被基板處理裝置300處理之基板W之處理前後各者的被膜之膜厚特性及處理條件。然後,學習裝置200根據處理前後各者的被膜之膜厚特性及處理條件產生學習用資料,藉由使預測器進行機器學習,而對預測器進行追加學習。構成預測器之神經網路之構成不會因追加學習而變更,但參數被調整。
基板處理裝置300實際處理基板W之結果為:因使用獲得之資訊,使預測器進行機器學習,故可提高預測器之精度。又,可儘可能地減少使用於產生預測器之學習用資料之數目。
圖9係顯示追加學習處理之流程之一例之流程圖。追加學習處理係藉由學習裝置200所含之CPU 201執行儲存於RAM 202之追加學習程式,而藉由CPU 201來執行之處理。追加學習程式係學習程式之一部分。
參照圖9,學習裝置200所含之CPU 201取得生產時資料(步驟S31),將處理前進至步驟S32。生產時資料包含在產生預測器之後,基板處理裝置300處理基板W時之處理條件、處理前後各者之被膜之膜厚特性。CPU 201控制輸入輸出I/F 107,自基板處理裝置300取得生產時資料。生產時資料可藉由利用記憶裝置104讀取記錄於CD-ROM 209等記錄媒體之實驗資料而取得。
在步驟S32中,將變動條件、生產時資料之處理條件所含之固定條件、及蝕刻輪廓設定於學習用資料。蝕刻輪廓係生產時資料所含之處理前之被膜之膜厚特性、與生產時資料所含之處理後之被膜之膜厚特性之差分。將變動條件及處理條件所含之固定條件設定於輸入資料。將蝕刻輪廓設定於正確解資料。
在之後之步驟S33中,CPU 201使預測器進行追加學習,將處理前進至步驟S34。將輸入資料輸入預測器,以預測器之輸出與正確解資料之差變小之方式決定過濾器及參數。藉此,進一步調整預測器之過濾器及參數。
在步驟S34中,判斷調整是否完成。以評估用之學習用資料而評估預測器之性能。在評估結果滿足預先決定之追加學習用評估基準時,判斷為調整完成。追加學習用評估基準係較在產生預測器時使用之評估基準高之基準。若評估結果不滿足追加學習用評估基準(步驟S34中為否),則處理返回步驟S31,若評估結果滿足追加學習用評估基準(步驟S34中為是),則處理結束。
(2) 學習裝置200可使用包含藉由資訊處理裝置100決定之處理條件及根據該處理條件而藉由預測器推測之蝕刻輪廓之蒸餾用資料,產生使新的學習模型進行機器學習之蒸餾模型。藉此,容易準備用於使新的學習模型進行學習之資料。
(3) 在本實施形態中,在使用於產生預測器之學習用資料中,輸入資料包含變動條件及固定條件。本發明並不限定於此。輸入資料可僅包含變動條件、而不包含固定條件。
(4) 在本實施形態中,作為變動條件之一例而顯示噴嘴311與基板W之相對位置,但本發明並不限定於此。蝕刻液之溫度、蝕刻液之濃度、蝕刻液之流量及基板W之轉速之至少1者,在伴隨著時間之經過而變動之情形下,可將該等作為變動條件。又,變動條件不限於1種,可包含複數種。
圖10係用於說明其他實施形態之學習模型之第1圖。此處,以自噴嘴噴出之蝕刻液之流量伴隨著時間之經過而變動之情形為例進行說明。該情形下,變動條件包含伴隨著時間之經過而變動之蝕刻液之流量。該情形下,使用圖10所示之學習模型。圖10所示之學習模型與圖6所示之學習模型不同之點在於如下之點:輸入於第1卷積神經網路CNN1之變動條件包含表示伴隨著時間之經過而變動之噴嘴相對於基板之相對位置之位置條件、及表示伴隨著時間之經過而變動之蝕刻液之流量之流量條件。因此,第1卷積神經網路CNN1進行2通道之卷積處理。
該情形下,位置條件與流量條件分別表示同一時刻下之噴嘴相對於基板之相對位置、及蝕刻液之流量。因此,在對位置條件及流量條件進行學習時,可一面保持時間資訊一面學習位置條件與流量條件。又,因使用單一之第1卷積神經網路CNN1,故可抑制學習參數之數目,而可抑制過擬合。
又,在學習模型中,可利用其他卷積神經網路來處理位置條件及流量條件。圖11係用於說明其他實施形態之學習模型之第2圖。參照圖11,處理噴嘴條件之第1卷積神經網路CNN1與處理流量條件之第3卷積神經網路CNN3,設置於全結合神經網路NN之輸入側。
(5) 在上述實施形態中,學習模型包含第1卷積神經網路CNN1、全結合神經網路NN及第2卷積神經網路CNN2,但本發明並不限定於此。例如,亦可在預測器中,設置全結合神經網路NN及第2卷積神經網路CNN2之任一者或兩者。
(6) 對於將資訊處理裝置100及學習裝置200與基板處理裝置300設為個別構體之情形為例進行了說明,但本發明並不限定於此。亦可於基板處理裝置300中組入資訊處理裝置100。進而,亦可於基板處理裝置300組入資訊處理裝置100及學習裝置200。又,資訊處理裝置100與學習裝置200設為個別構體之裝置,但該等亦可作為一體之裝置而構成。
6.實施形態之效果 在上述實施形態之學習裝置200中,因變動條件係伴隨著時間之經過而變動之值,故藉由使用第1卷積神經網路CNN1,而可擷取考量了時間之要素之特徵。又,藉由使第1卷積神經網路CNN1學習,而可抑制學習參數之數目,故可提高學習模型之泛化性能。
又,因處理量決定為基板之徑向上之不同之複數個位置各者,故藉由使第2卷積神經網路CNN2學習處理量,而擷取考量了基板之徑向之位置之要素之特徵。又,可抑制學習參數之數目,而可提高學習模型之泛化性能。
又,在第1卷積神經網路CNN1與第2卷積神經網路CNN2之間設置全結合神經網路NN。該情形下,可藉由全結合神經網路NN而調整第1卷積神經網路CNN1之輸出之數目及第2卷積神經網路CNN2之輸入之數目。又,因可藉由全結合神經網路NN而調整第1卷積神經網路CNN1之輸出之數目及第2卷積神經網路CNN2之輸入之數目,故即便不使第1卷積神經網路CNN1之輸出之數目與第2卷積神經網路CNN2之輸入之數目一致,亦可良好地推進機器學習。進而,因可不使第1卷積神經網路CNN1之輸出之數目與第2卷積神經網路CNN2之輸入之數目一致,故可對維數更多之學習用資料進行機器學習。因此,可對維數更多之變動條件進行機器學習。又,因可對維數更多之固定條件進行機器學習,故可將用於驅動基板處理裝置之處理條件所含之條件之種類設為更多地進行機器學習。
進而,在第1卷積神經網路CNN1內,因自上層向下層過濾器數目變多,故可較多地擷取變動條件之特徵。又,在第2卷積神經網路CNN2內,因自上層向下層過濾器數變少,故可較多地擷取考量了複數個處理量各者之位置之特徵。其結果,可提高學習裝置200之泛化性能。
又,因學習模型包含第1卷積神經網路CNN1,故即便在變動條件之資料數多之情形下,亦可產生提高泛化性能之學習模型。
7.技術方案之各構成要素與實施形態之各部之對應關係 基板W係基板之一例,蝕刻液係處理液之一例,基板處理裝置300係基板處理裝置之一例,實驗資料取得部261係實驗資料取得部之一例,預測器係學習模型之一例,預測器產生部265係模型產生部之一例。又,資訊處理裝置100係資訊處理裝置之一例,變動條件產生部251係變動條件產生部之一例,噴嘴311係對基板供給處理液之噴嘴之一例,噴嘴移動機構301係移動部之一例,預測部159、評估部161及處理條件決定部151係處理條件決定部之一例。
8.實施形態之總括 (第1項) 本發明之一態樣之學習裝置包含: 實驗資料取得部,其在將藉由對形成有被膜之基板供給處理液而進行前述被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行前述被膜之處理之後,取得表示前述被膜之處理前後之膜厚差之第一處理量;及 模型產生部,其對於包含與前述變動條件及前述處理條件對應之前述第一處理量之學習用資料進行機器學習,而產生對於在被前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型;且 前述學習模型包含第1卷積神經網路。
根據第1項記載之學習裝置,因變動條件係伴隨著時間之經過而變動之值,故藉由使用卷積神經網路,而可擷取考量了時間之要素之特徵。又,藉由使用卷積神經網路,而可抑制學習參數之數目,故可提高學習模型之泛化性能。其結果,可提供一種適宜於為了處理基板而對伴隨著時間之經過而變化之條件進行機器學習之學習裝置。
(第2項) 如第1項之學習裝置,其中亦可為, 前述第一處理量與前述第二處理量係在基板之徑向上不同之複數個位置各者處之前述被膜之處理前後之膜厚差, 前述學習模型進一步包含輸出前述第一處理量或前述第二處理量之第2卷積神經網路。
根據第2項記載之學習裝置,第一及第二處理量決定為基板之徑向上之不同之複數個位置各者,故藉由使卷積神經網路學習第一或第二處理量,而擷取考量了基板之徑向之位置之要素之特徵。又,可抑制學習參數之數目,而可提高學習模型之泛化性能。
(第3項) 如第2項之學習裝置,其中亦可為, 前述學習模型進一步包含全結合神經網路,其輸入有前述第1卷積神經網路之輸出及前述處理條件中之前述變動條件以外之固定條件,且 前述第2卷積神經網路輸入有前述全結合神經網路之輸出。
根據第3項記載之學習裝置,在第1卷積神經網路與第2卷積神經網路之間設置全結合神經網路。該情形下,可藉由全結合神經網路而調整自第1卷積神經網路輸出之特徵之數目及輸入第2卷積神經網路之特徵之數目。
(第4項) 如第2項或第3項之學習裝置,其中亦可為, 前述第1卷積神經網路具有之複數層中分別使用之過濾器數目中,下層中使用之過濾器數係其上層中使用之過濾器數之倍數, 前述第2卷積神經網路具有之複數層中分別使用之過濾器數中,下層中使用之過濾器數係其上層中使用之過濾器數之1/2倍。
根據第4項記載之學習裝置,在第1卷積神經網路內,因自上層向下層過濾器數變多,故可較多地擷取變動條件之特徵。又,在第2卷積神經網路內,因自上層向下層過濾器數變少,故可較多地擷取複數個處理量之特徵。其結果,可提高學習裝置之精度。
(第5項) 如第1項至第4項中任一項之學習裝置,其中亦可為, 前述基板處理裝置藉由使對基板供給處理液之噴嘴移動而對基板供給前述處理液, 前述變動條件包含表示伴隨著時間之經過而變動之前述噴嘴相對於基板之相對位置之噴嘴移動條件。
根據第5項記載之學習裝置,噴嘴移動條件輸入於第1卷積神經網路。因此,即便在噴嘴移動條件之資料數多之情形下,亦可產生提高泛化性能之學習模型。
(第6項) 如第5項之學習裝置,其中亦可為, 前述變動條件進一步包含表示伴隨著時間之經過而變化之自前述噴嘴噴出之處理液之流量之噴出流量條件。
根據第6項記載之學習裝置,即便在噴出流量條件之資料數多之情形下,亦可產生提高泛化性能之學習模型。
(第7項) 本發明之又一態樣之資訊處理裝置係 管理基板處理裝置者, 前述基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行前述被膜之處理,且 該資訊處理裝置包含:處理條件決定部,其使用對於在藉由前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型,決定用於驅動前述基板處理裝置之處理條件; 前述學習模型包含第1卷積神經網路,係對於包含前述基板處理裝置進行前述被膜之處理之前述處理條件所含之前述變動條件、及表示在藉由前述基板處理裝置進行前述被膜之處理之前述基板上形成之前述被膜之處理前後之膜厚差之第一處理量之學習用資料進行機器學習之推論模型; 前述處理條件決定部將假定之變動條件賦予前述學習模型,在由前述學習模型推測出之前述第二處理量滿足容許條件時,將包含前述假定之變動條件之處理條件決定為用於驅動前述基板處理裝置之處理條件。
根據第7項記載之資訊處理裝置,將伴隨著時間之經過而變動之假定之變動條件賦予學習模型,在由學習模型推測出之處理量滿足容許條件時,將包含假定之變動條件之處理條件決定為用於驅動基板處理裝置之處理條件。因此,可對於滿足容許條件之處理量決定複數個假定之變動條件。其結果,可對處理基板之複雜之製程之處理結果提出複數個處理條件。
(第8項) 基板處理裝置可包含如第7項之資訊處理裝置。
根據第8項記載之基板處理裝置,可對處理基板之複雜之製程之處理結果提出複數個處理條件。
(第9項) 本發明之又一態樣之基板處理系統係 管理基板處理裝置者,且包含 學習裝置及資訊處理裝置; 前述基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行前述被膜之處理;且 前述學習裝置包含:實驗資料取得部,其在將前述基板處理裝置以前述處理條件進行驅動而進行形成於前述基板上之前述被膜之處理之後,取得表示前述被膜之處理前後之膜厚差之第一處理量; 模型產生部,其對於包含與前述變動條件及前述處理條件對應之前述第一處理量之學習用資料進行機器學習,而產生對於在被前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型;且 前述學習模型包含第1卷積神經網路; 前述資訊處理裝置包含處理條件決定部,其使用由前述學習裝置產生之前述學習模型,決定用於驅動前述基板處理裝置之處理條件; 前述處理條件決定部對由前述學習裝置產生之前述學習模型賦予假定之變動條件,在由前述學習模型推測出之前述第二處理量滿足容許條件時,將包含前述假定之變動條件之處理條件決定為用於驅動前述基板處理裝置之處理條件。
根據第9項記載之基板處理系統,可適宜於為了處理基板而對伴隨著時間之經過而變化之條件進行機器學習,且可對處理基板之複雜之製程之處理結果提出複數個處理條件。
(第10項) 本發明之又一態樣之學習方法使電腦執行如下處理: 在將藉由對形成有被膜之基板供給處理液而進行前述被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行前述被膜之處理之後,取得表示前述被膜之處理前後之膜厚差之第一處理量;及 對於包含與前述變動條件及前述處理條件對應之前述第一處理量之學習用資料進行機器學習,而產生對於在被前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型;且 前述學習模型包含第1卷積神經網路。
根據第10項記載之學習方法,學習模型包含卷積神經網路。因此,可提供一種適宜於為了處理基板而對伴隨著時間之經過而變化之條件進行機器學習之學習方法。
(第11項) 本發明之又一態樣之處理條件決定方法係 由管理基板處理裝置之電腦來執行者; 前述基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行前述被膜之處理;且 該處理條件決定方法包含如下處理:使用對於在被前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型,決定用於驅動前述基板處理裝置之處理條件; 前述學習模型包含第1卷積神經網路,係對於包含前述基板處理裝置進行前述被膜之處理之前述處理條件所含之前述變動條件、及表示在被前述基板處理裝置進行前述被膜之處理之前述基板上形成之前述被膜之處理前後之膜厚差之第一處理量之學習用資料進行機器學習之推論模型; 決定前述處理條件之處理包含如下處理:將假定之變動條件賦予前述學習模型,在由前述學習模型推測出之前述第二處理量滿足容許條件時,將包含前述假定之變動條件之處理條件決定為用於驅動前述基板處理裝置之處理條件。
根據第11項記載之基板條件決定方法,可提供一種可對處理基板之複雜之製程之處理結果提出複數個處理條件之處理條件決定方法。
1:基板處理系統 10:控制裝置 100:資訊處理裝置 101:CPU 102:RAM 103:ROM 104:記憶裝置 105:操作部 106:顯示裝置 107:輸入輸出I/F 108:匯流排 109:CD-ROM 151:處理條件決定部 155:預測器接收部 159:預測部 161:評估部 163:處理條件發送部 200:學習裝置 201:CPU 202:RAM 203:ROM 204:記憶裝置 205:操作部 206:顯示裝置 207:輸入輸出I/F 208:匯流排 209:CD-ROM 261:實驗資料取得部 251:變動條件產生部 265:預測器產生部 267:預測器發送部 300:基板處理裝置 301:噴嘴移動機構 303:噴嘴馬達 305:噴嘴臂 311:噴嘴 AX1:第1旋轉軸 AX2:第2旋轉軸 CNN1:第1卷積神經網路 CNN2:第2卷積神經網路 CNN3:第3卷積神經網路 E:膜厚之差 L1:第1層 L2:第2層 L3:第3層 L4:第4層 L5:第5層 L6:第6層 NN:全結合神經網路 S11~S17,S21~S28,S31~S34:步驟 SC:旋轉卡盤 SM:旋轉馬達 W:基板 WU:基板處理單元
圖1係用於說明本發明之一實施形態之基板處理系統之構成之圖。 圖2係顯示資訊處理裝置之構成之一例之圖。 圖3係顯示學習裝置之構成之一例之圖。 圖4係顯示基板處理系統之功能性之構成之一例之圖。 圖5係顯示膜厚特性之一例之圖。 圖6係說明學習模型之圖。 圖7係顯示學習處理之流程之一例之流程圖。 圖8係顯示處理條件決定處理之流程之一例之流程圖。 圖9係顯示追加學習處理之流程之一例之流程圖。 圖10係用於說明其他實施形態之學習模型之第1圖。 圖11係用於說明其他實施形態之學習模型之第2圖。
1:基板處理系統
10:控制裝置
100:資訊處理裝置
151:處理條件決定部
155:預測器接收部
159:預測部
161:評估部
163:處理條件發送部
200:學習裝置
261:實驗資料取得部
265:預測器產生部
267:預測器發送部

Claims (11)

  1. 一種學習裝置,其包含:實驗資料取得部,其在將藉由對形成有被膜之基板供給處理液而進行前述被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行前述被膜之處理之後,取得表示前述被膜之處理前後之膜厚差之第一處理量;及 模型產生部,其對於包含與前述變動條件及前述處理條件對應之前述第一處理量之學習用資料進行機器學習,而產生對於在被前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型;且 前述學習模型包含第1卷積神經網路。
  2. 如請求項1之學習裝置,其中前述第一處理量與前述第二處理量係在基板之徑向上不同之複數個位置各者處之前述被膜之處理前後之膜厚差, 前述學習模型進一步包含輸出前述第一處理量或前述第二處理量之第2卷積神經網路。
  3. 如請求項2之學習裝置,其中前述學習模型進一步包含全結合神經網路,其輸入有前述第1卷積神經網路之輸出及前述處理條件中之前述變動條件以外之固定條件,且 前述第2卷積神經網路輸入有前述全結合神經網路之輸出。
  4. 如請求項2之學習裝置,其中前述第1卷積神經網路具有之複數層中分別使用之過濾器數目中,下層中使用之過濾器數係其上層中使用之過濾器數之倍數, 前述第2卷積神經網路具有之複數層中分別使用之過濾器數中,下層中使用之過濾器數係其上層中使用之過濾器數之1/2倍。
  5. 如請求項1至4中任一項之學習裝置,其中前述基板處理裝置藉由使對基板供給處理液之噴嘴移動而對基板供給前述處理液, 前述變動條件包含表示伴隨著時間之經過而變動之前述噴嘴相對於基板之相對位置之噴嘴移動條件。
  6. 如請求項5之學習裝置,其中前述變動條件進一步包含表示伴隨著時間之經過而變化之自前述噴嘴噴出之處理液之流量之噴出流量條件。
  7. 一種資訊處理裝置,其係管理基板處理裝置者, 前述基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行前述被膜之處理,且 該資訊處理裝置包含:處理條件決定部,其使用對於在藉由前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型,決定用於驅動前述基板處理裝置之處理條件; 前述學習模型包含第1卷積神經網路,係對於包含前述基板處理裝置進行前述被膜之處理之前述處理條件所含之前述變動條件、及表示在藉由前述基板處理裝置進行前述被膜之處理之前述基板上形成之前述被膜之處理前後之膜厚差之第一處理量之學習用資料進行機器學習之推論模型; 前述處理條件決定部將假定之變動條件賦予前述學習模型,在由前述學習模型推測出之前述第二處理量滿足容許條件時,將包含前述假定之變動條件之處理條件決定為用於驅動前述基板處理裝置之處理條件。
  8. 一種基板處理裝置,其包含如請求項7之資訊處理裝置。
  9. 一種基板處理系統,其係管理基板處理裝置者,且包含 學習裝置及資訊處理裝置; 前述基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行前述被膜之處理;且 前述學習裝置包含:實驗資料取得部,其在將前述基板處理裝置以前述處理條件進行驅動而進行形成於前述基板上之前述被膜之處理之後,取得表示前述被膜之處理前後之膜厚差之第一處理量; 模型產生部,其對於包含與前述變動條件及前述處理條件對應之前述第一處理量之學習用資料進行機器學習,而產生對於在藉由前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型;且 前述學習模型包含第1卷積神經網路; 前述資訊處理裝置包含處理條件決定部,其使用由前述學習裝置產生之前述學習模型,決定用於驅動前述基板處理裝置之處理條件; 前述處理條件決定部對由前述學習裝置產生之前述學習模型賦予假定之變動條件,在由前述學習模型推測出之前述第二處理量滿足容許條件時,將包含前述假定之變動條件之處理條件決定為用於驅動前述基板處理裝置之處理條件。
  10. 一種學習方法,其使電腦執行如下處理:在將藉由對形成有被膜之基板供給處理液而進行前述被膜之處理之基板處理裝置,以包含伴隨著時間之經過而變動之變動條件之處理條件進行驅動而進行前述被膜之處理之後,取得表示前述被膜之處理前後之膜厚差之第一處理量;及 對於包含與前述變動條件及前述處理條件對應之前述第一處理量之學習用資料進行機器學習,而產生對於在藉由前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型;且 前述學習模型包含第1卷積神經網路。
  11. 一種處理條件決定方法,其係由管理基板處理裝置之電腦來執行者, 前述基板處理裝置藉由在包含伴隨著時間之經過而變動之變動條件之處理條件下,對形成有被膜之基板供給處理液,而進行前述被膜之處理,且 該處理條件決定方法包含如下處理:使用對於在藉由前述基板處理裝置進行前述被膜之處理之前之前述基板上形成之前述被膜推測表示前述被膜之處理前後之膜厚差之第二處理量之學習模型,決定用於驅動前述基板處理裝置之處理條件; 前述學習模型包含第1卷積神經網路,係對於包含前述基板處理裝置進行前述被膜之處理之前述處理條件所含之前述變動條件、及表示在藉由前述基板處理裝置進行前述被膜之處理之前述基板上形成之前述被膜之處理前後之膜厚差之第一處理量之學習用資料進行機器學習之推論模型; 決定前述處理條件之處理包含如下處理:將假定之變動條件賦予前述學習模型,在由前述學習模型推測出之前述第二處理量滿足容許條件時,將包含前述假定之變動條件之處理條件決定為用於驅動前述基板處理裝置之處理條件。
TW112130932A 2022-09-26 2023-08-17 學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法 TW202414282A (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022-153151 2022-09-26

Publications (1)

Publication Number Publication Date
TW202414282A true TW202414282A (zh) 2024-04-01

Family

ID=

Similar Documents

Publication Publication Date Title
US20220171373A1 (en) Model-based scheduling for substrate processing systems
US9395408B2 (en) System for wafer quality predictive modeling based on multi-source information with heterogeneous relatedness
JP7045368B2 (ja) 複雑な多変量ウエハ処理機器における機械学習を実行する方法及びプロセス
JP4472637B2 (ja) 電気的製造制御に対する確率制約最適化
Chamnanlor et al. Embedding ant system in genetic algorithm for re-entrant hybrid flow shop scheduling problems with time window constraints
Masmoudi et al. Project scheduling under uncertainty using fuzzy modelling and solving techniques
KR20200123480A (ko) 통합형 반도체 공정 모듈을 포함하는 자기 인식 및 보정 이종 플랫폼, 및 이를 사용하기 위한 방법
US7979293B2 (en) System and method for production system operations timing
JP2012033170A (ja) 高度プロセス制御システム及び信頼指数を有する仮想測定による方法
JP7419547B2 (ja) 学習済み隠れ状態を使用するエージェント制御のためのプランニング
CN108803348A (zh) 一种pid参数的优化方法及pid参数的优化装置
TW202414282A (zh) 學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法
Bagga et al. Deep learnable strategy templates for multi-issue bilateral negotiation
JP2010152767A (ja) 予測制御方法および予測制御システム
WO2024070233A1 (ja) 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法
JP2023120168A (ja) 半導体工場における待ち時間予測のための方法
WO2023114075A1 (en) Post preventative maintenance chamber condition monitoring and simulation
TW202412946A (zh) 學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法
WO2023181525A1 (ja) 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法
WO2024070390A1 (ja) 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法
Liao et al. Recurrent reinforcement learning for predictive overall equipment effectiveness
JP6829271B2 (ja) 測定動作パラメータ調整装置、機械学習装置及びシステム
TW202414557A (zh) 學習裝置、資訊處理裝置、基板處理裝置、基板處理系統、學習方法及處理條件決定方法
WO2024070055A1 (ja) 学習装置、情報処理装置、基板処理装置、基板処理システム、学習方法および処理条件決定方法
EP4075211B1 (en) Prediction method and system for multivariate time series data in manufacturing systems