JP3869098B2 - Transport device, substrate carry-in / out device, and substrate processing apparatus - Google Patents

Transport device, substrate carry-in / out device, and substrate processing apparatus Download PDF

Info

Publication number
JP3869098B2
JP3869098B2 JP32877797A JP32877797A JP3869098B2 JP 3869098 B2 JP3869098 B2 JP 3869098B2 JP 32877797 A JP32877797 A JP 32877797A JP 32877797 A JP32877797 A JP 32877797A JP 3869098 B2 JP3869098 B2 JP 3869098B2
Authority
JP
Japan
Prior art keywords
arm
substrate
axis
detected
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP32877797A
Other languages
Japanese (ja)
Other versions
JPH11163084A (en
Inventor
和浩 西村
康彦 橋本
正俊 佐野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Kawasaki Motors Ltd
Original Assignee
Screen Holdings Co Ltd
Dainippon Screen Manufacturing Co Ltd
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd, Dainippon Screen Manufacturing Co Ltd, Kawasaki Jukogyo KK filed Critical Screen Holdings Co Ltd
Priority to JP32877797A priority Critical patent/JP3869098B2/en
Publication of JPH11163084A publication Critical patent/JPH11163084A/en
Application granted granted Critical
Publication of JP3869098B2 publication Critical patent/JP3869098B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Gripping Jigs, Holding Jigs, And Positioning Jigs (AREA)
  • Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)

Description

【0001】
【発明の属する技術分野】
この発明は、収納容器に対して被搬送物の搬送を行う搬送装置、基板搬入搬出装置、及び基板処理装置に関する。
【0002】
【従来の技術】
従来より、半導体ウエハや液晶用ガラス基板等の薄板状基板(以下、単に「基板」という)を処理する基板処理装置には、複数の処理部が設けられており、処理対象の基板に対して各処理部でそれぞれ異なる処理が施される。このような従来の基板処理装置には、基板を搬送する搬送装置が設けられており、当該搬送装置のアームが基板を複数枚収容するキャリアから1枚ずつ基板を取り出し、複数の処理部が設けられた処理ユニット側に搬送する。
【0003】
このような搬送装置では、アームがキャリアに対して常に正確な位置にアクセスし、基板をキャリアに形成された所定の位置に搬送したり、又は所定の位置から基板を取り出すことが必要とされる。ここで、アームがアクセスする位置が正確な収納位置からズレていると、基板を傷つけたり、基板に不要なパーティクルが付着させたりするおそれがあり、好ましくない。
【0004】
ところが、現実には基板を保持するアームを構成する部材の加工誤差、各部材を取り付ける際の取り付け誤差、及び搬送装置を組み立てる際の組立誤差等の種々の誤差が原因となって、搬送装置のアームは、正確な収納位置にアクセスせず、正確な収納位置からズレを生じることとなる。
【0005】
このような誤差等による位置ズレを解消するために、従来より実際に基板を搬送するのに先だってオペレータによる搬送装置に対するティーチング作業が行われている。このティーチング作業は、装置のメンテナンスの度に行うことが必要である。
【0006】
【発明が解決しようとする課題】
上記のような従来の基板処理装置における搬送装置のティーチング作業は、実際にアームに基板を載せ、オペレータが手動でアームを少しずつ移動させながら、キャリアの所定の収納位置にアームを近づけ、目視にて合わせ込みを行うものであった。従って、従来のティーチング作業は、非常に面倒で時間のかかる作業であった。また、ティーチング作業を行うオペレータの経験や技術力によって、その精度に大きく差が生じることとなっていた。
【0007】
また、キャリアが、ポッド(POD)と呼ばれるような基板を外気に晒さない基板収納容器である場合は気密性が要求されるため、キャリアは隙間のないように構成されている。従って、目視にてティーチング作業を行う場合、アームと収納位置との位置関係を確認することは、非常に困難なものとなる。
【0008】
このようにティーチング作業はオペレータの負担となるとともに、ティーチング作業に時間がかかることや精度にばらつきが生じることは、基板処理装置を効率的かつ正確に運転するという観点から考えても好ましいものではない。
【0009】
そこで、この発明は、上記課題に鑑みてなされたものであって、オペレータの負担を低減するとともに、正確かつ短時間で効率的に位置ズレを解消することができる搬送装置、基板搬入搬出装置、及び基板処理装置を提供することを目的とする。
【0010】
【課題を解決するための手段】
上記目的を達成するために、請求項1に記載の発明は、収納容器に対してアームによって被搬送物の収納又は取り出しを行う搬送装置であって、(a)収納容器の所定位置に第1の治具が設置され、かつ、アームに第2の治具を保持させた状態で、第1の治具に対して第2の治具を所定の相対的位置関係になるまで近接させ、当該近接状態においてアームをそれぞれ異なる複数の方向に移動させることによって、前記複数の方向のそれぞれについて第1の治具を検出して位置情報として取得する制御手段と、(b)前記位置情報に基づいて、アームが収納容器に対して被搬送物の収納又は取り出しを行う際の基準位置を設定する設定手段とを備え、第1と第2の治具のうちの一方には、少なくともその一部に所定の形状を有する被検出部が形成されているとともに、第1と第2の治具のうちの他方には、被検出部に感応するセンサが設けられており、制御手段は、 (a1) 被検出部を横切って通過する少なくとも3つの軌跡のそれぞれに沿ってセンサの検出ポイントが移動するようにアームを移動させる移動制御手段と、 (a2) センサの検出ポイントが少なくとも3つの軌跡のそれぞれに沿って移動する過程にてセンサが検出した被検出部の一対のエッジを一対のエッジ検出位置として取得することにより、被検出部について少なくとも3つの一対のエッジ検出位置を取得するエッジ位置検出手段と、 (a3) 少なくとも3つの一対のエッジ検出位置に基づいて位置情報を得る位置情報取得手段とを備えている。
【0011】
請求項2に記載の発明は、請求項1に記載の搬送装置において、エッジ位置検出手段は、 (a2-1) センサの検出ポイントが少なくとも3つの軌跡のそれぞれの順方向に沿って移動する過程にてセンサが検出した被検出部の一対のエッジを一対の順方向エッジ検出位置として取得することにより、被検出部について少なくとも3つの一対の順方向エッジ検出位置を取得する順方向検出手段と、 (a2-2) センサの検出ポイントが少なくとも3つの軌跡のそれぞれの逆方向に沿って移動する過程にてセンサが検出した被検出部の一対のエッジを一対の逆方向エッジ検出位置として取得することにより、被検出部について少なくとも3つの一対の逆方向エッジ検出位置を取得する逆方向検出手段と、を備え、位置情報取得手段は、少なくとも3つの一対の順方向エッジ検出位置と少なくとも3つの一対の逆方向エッジ検出位置とに基づいて位置情報を得ることを特徴としている。
【0012】
請求項3に記載の発明は、請求項2に記載の装置において、順方向検出手段および逆方向検出手段のそれぞれは、アームを移動させつつ当該移動と並行してセンサによる被検出部の検出出力を取り込むことを特徴としている。
【0013】
請求項4に記載の発明は、基板を複数枚収容する収納容器を載置する載置台が設けられるとともに、載置台に載置される収納容器に対して基板を搬入搬出する基板搬送手段として、請求項1ないし請求項3のいずれかに記載の搬送装置を備えることを特徴としている。
【0014】
請求項5に記載の発明は、基板に対して所定の処理を行う処理部を備え、収納容器から基板を取り出し、処理部に搬送するとともに、処理部において所定の処理が終了した基板を処理部から受け取り、収納容器に収納する基板搬送手段として、請求項1ないし請求項3のいずれかに記載の搬送装置を備えることを特徴としている。
【0018】
【発明の実施の形態】
<1.基板処理装置の全体構成>
まず、本発明に係る基板処理装置の全体構成について説明する。図1は、この実施の形態における基板処理装置を示す概略平面図である。
【0019】
図1に示すように、この実施の形態においては、基板処理装置は、インデクサIDとユニット配置部MPとインターフェイスIFとを備えている。
【0020】
インデクサIDには、基板Wを搬送する搬送装置TR1が設けられており、当該搬送装置TR1が基板Wを収納容器であるキャリアCから取り出してユニット配置部MPに搬出したり、所定の処理が終了した基板Wをユニット配置部MPから受け取ってキャリアCに収納する。このようにインデクサIDは、ユニット配置部MPとの関係において基板搬入搬出装置として機能する。
【0021】
ユニット配置部MPには、その4隅に基板に処理液による処理を施す液処理ユニットとして、基板を回転させつつレジスト塗布処理を行う塗布処理ユニットSC1、SC2(スピンコータ)と、露光後の基板の現像処理を行う現像処理ユニットSD1、SD2(スピンデベロッパ)とが設けられており、塗布処理ユニットSC1、SC2の間に基板に純水等の洗浄液を供給して基板を回転洗浄する洗浄処理ユニットSS(スピンスクラバ)が配置されている。さらに、これらの液処理ユニットの上側には、基板を冷却処理するクールプレート部や加熱処理するホットプレート部等の熱処理を行う複数の熱処理ユニットが配置されている。そして、ユニット配置部MPの中央部には搬送装置TR2が設けられており、当該搬送装置TR2が基板Wを液処理ユニットや熱処理ユニット間で順次に搬送することによって基板Wに対する所定の処理を施すことができる。
【0022】
インターフェイスIFは、ユニット配置部MPにおいてレジストの塗布が終了した基板を図示しない露光装置側に渡したり露光後の基板を露光装置側から受け取るために設けられているものである。当該インターフェイスIFの内部には、基板をユニット配置部MPから受け取ったり、露光後の基板をユニット配置部に渡したりするための搬送装置TR3が設けられているとともに、基板を一時的にストックするための収納容器であるキャリアCを備えている。
【0023】
上記のような構成の基板処理装置において、キャリアCに対して基板を搬送する搬送装置について、搬送装置のアームがキャリアCに対して常に正確な位置にアクセスし、基板をキャリアCに形成された所定の位置(棚)に搬送したり、又は所定の位置(棚)から基板を取り出すことが必要とされるが、これらの搬送装置についてのティーチングを自動で行うことにより、オペレータの負担を低減するとともに、正確かつ短時間で効率的に搬送装置の組立誤差等による位置ズレを解消する内容について以下に説明する。
【0024】
<2.搬送装置の構成>
次に、インデクサIDにおける搬送装置TR1について説明する。図2は、搬送装置TR1の外観斜視図である。この搬送装置TR1は、円形の基板を保持するアーム31を備え、このアーム31を水平方向に屈伸動作させる水平移動機構(X軸移動機構)と、伸縮しつつ鉛直方向に移動させる伸縮昇降機構(Z軸駆動機構)と、Y軸方向に設けられたボールネジ77,ガイドレール76に沿って搬送装置TR1を移動させるように平行移動機構(Y軸移動機構)とが設けられている。さらに、搬送装置TR1は、図1に示すキャリアCの基板Wを取り出してユニット配置部MPに搬送するために、搬送装置TR1の中心の鉛直軸周りに回転させる回転駆動機構も備えている。
【0025】
まず、アーム31の屈伸運動について説明する。アーム31は、図3に示すような構成となっている。図3は、アーム31の内部構造を示す側方断面図である。アーム31は、基板Wを載置する先端側の第1アームセグメント34と、この第1アームセグメント34を水平面内で回動自在に支持する第2アームセグメント33と、この第2アームセグメント33を水平面内で回動自在に支持する第3アームセグメント32と、この第3アームセグメント32を水平面内で回動させるX軸駆動部D3と、このX軸駆動部D3によって第3アームセグメント32を回動させたときに第2アームセグメント33及び第1アームセグメント34に動力を伝達してこれらの姿勢および移動方向を制御する屈伸機構である動力伝達手段46とが設けられている。
【0026】
第1アームセグメント34の基端部には、第1回動軸51が下方に垂設固定されている。また、第2アームセグメント33の先端部には、第1回動軸51を回動自在に軸受けする第1軸受け孔52が穿設されている。また、第2アームセグメント33の基端部には、第2回動軸53が下方に垂設固定されている。第3アームセグメント32は、第2アームセグメント33と同じ長さ寸法に設定されており、その先端部には、第2回動軸53を回動自在に軸受けする第2軸受け孔54が穿設されている。また、第3アームセグメント32の基端部には、X軸駆動部D3の回転力が伝達される第3回動軸55が、下方に向けて垂設固定されている。
【0027】
動力伝達手段46は、第1回動軸51の下端に固定された第1プーリ61と、第2軸受け孔54の上面側において第2回動軸53に固定された第2プーリ62と、第1プーリ61と第2プーリ62との間に掛架された第1ベルト63と、第2回転軸53の下端に固定された第3プーリ64と、第3アームセグメント32に固定されて第3回動軸55を遊嵌する第4プーリ65と、第3プーリ64と第4プーリ65との間に掛架された第2ベルト66とを備えている。
【0028】
ここで、第1プーリ61の径と第2プーリ62の径とは2対1に設定され、また、第3プーリ64の径と第4プーリ65の径とは1対2に設定されている。また、第1回動軸51から第2回動軸53までの距離と、第2回動軸53から第3回動軸55までの距離は、同一の長さRに設定されている。
【0029】
図4は、アーム31の動作を概念的に説明する図である。図3,図4により動作について説明すると、X軸駆動部D3が第3回動軸55を介して第3アームセグメント32bを角度αだけ反時計回りに回動させると、第3アームセグメント32の先端部に軸受された第2回動軸53は、第2ベルト66及び第3プーリ64を通じて第3回動軸55の2倍の角度β=2αだけ時計回りに回動する。これによって、第2アームセグメント33の先端部に軸受けされた第1回動軸51は、X軸方向に直進する。この際、第1回動軸51は、第2プーリ62及び第1ベルト63を通じて回動角を制御されている。ここで、第2アームセグメント33を基準とすると、第1回動軸51は、第2回動軸53の1/2倍の角度γ=αだけ反時計回りに回動することになるが、第2アームセグメント33自体が回動しており、結果的に、第1アームセグメント34は、X軸駆動部D3に対する姿勢を維持しながらX軸方向に直進する。このようにして、搬送装置TR1のアーム31は、X軸に沿って屈伸運動を行う。
【0030】
次に、搬送装置TR1の伸縮昇降機構および回転駆動機構について説明する。図2に示す搬送装置TR1の伸縮昇降機構は、いわゆるテレスコピック型の伸縮機構であり、カバー41dをカバー41cに収納可能であり、カバー41cをカバー41bに収納可能であり、カバー41bをカバー41aに収納可能である。そして、アーム31を降下させる際には、カバーを順次に収納していくことができ、逆に、アーム31を上昇させる際には収納した状態のカバーが順次に引き出されるように実現されている。
【0031】
また、この搬送装置TR1は基台44上に設置されており、基台44の中心を軸として回転することができるように回転駆動機構が構成されている。なお、基台44の下部は、ボールネジ77およびガイドレール76に取り付けられている。
【0032】
図5は、搬送装置TR1の動作を説明するための側面断面図である。図5に示すように、この搬送装置TR1の内部は、いわゆるテレスコピック型の多段入れ子構造となっており、収縮時において、昇降部材42aは昇降部材42bに収納され、昇降部材42bは昇降部材42cに収納され、昇降部材42cは昇降部材42dに収納され、昇降部材42dは固定部材42eに収納されるように構成されている。
【0033】
そして、昇降部材42b,42c,42dには、それぞれプーリ47a,47b,47cが取り付けられている。これらプーリ47a,47b,47cには、ベルトL3,L2,L1が掛架されている。そして、ベルトL1の一端は固定部材42eの上部に固定されており、他端は昇降部材42cの下部に固定されている。同様に、ベルトL2は昇降部材42dの上部と昇降部材42bの下部に固定されており、ベルトL3は昇降部材42cの上部と昇降部材42aの下部に固定されている。
【0034】
そして、回転台45上に設置されたモータ等のZ軸駆動部D1を駆動することにより、支持部材48が昇降し、この支持部材48に固着された昇降部材42dが昇降する。ここで、伸縮昇降機構を伸長することによりアーム31を上昇させる場合について説明する。まず、Z軸駆動部D1の駆動により、支持部材48が上昇し、同時に、昇降部材42dが上昇する。昇降部材42dが上昇するとそれに取り付けられていたプーリ47cも同時に上昇する。上記のようにベルトL1の一端が固定部材42eに固定されているとともにベルトL1の長さは一定であるため、プーリ47cが上昇するとベルトL1に引き上げられるようにして昇降部材42cが上昇する。昇降部材42cが上昇するとそれに取り付けられていたプーリ47bが上昇し、ベルトL2に引き上げられるようにして昇降部材42bが上昇する。昇降部材42bが上昇するとそれに取り付けられていたプーリ47aが上昇し、ベルトL3に引き上げられるようにして昇降部材42aが上昇する。このようにして、昇降部材42aの上側に設置されているアーム31を上昇させることができる。
【0035】
また、伸縮昇降機構によって搬送装置TR1を収縮させることによりアーム31を下降させる場合については、上記と逆に、Z軸駆動部D1の駆動により、支持部材48を下降させるようにすれば、各昇降部材が順次に連動して下降し、昇降部材42aの上側に設置されているアーム31を下降させることができる。
【0036】
なお、カバー41a〜41dは、それぞれ昇降部材42a〜42dに取り付けられており、これらカバー41a〜41dの昇降動作は、昇降部材42a〜42dの動作に連動している。
【0037】
そして、θ軸回転駆動部D4は、回転台45を基台44の軸θを中心に回転させるための駆動手段であり、モータ等によって構成されている。従って、回転台45が軸θを中心に回転することによって、アーム31が軸θを中心として回転することが可能となっている。
【0038】
また、搬送装置TR1をY軸に沿って移動させるために、ボールネジ77を回転させる図示しないY軸駆動部D2が設けられている。
【0039】
上記のような構成により搬送装置TR1は、X,Y,Z軸の3次元について移動自在となり、インデクサIDに設けられた複数のキャリアCのうちの任意のキャリアCにアーム31をアクセスさせることができるとともに、キャリア内の任意の収容位置に対してもアーム31をアクセスさせることができる。
【0040】
なお、インターフェイスIFに設けられた搬送装置TR3についても3次元的に動作可能なように構成されており、インターフェイスIF内のキャリアCに対してそのアームをアクセスさせることが可能となっている。
【0041】
<3.ティーチング処理に使用する治具>
上記のような構成において、アーム31がキャリアCに対して常に正確な位置にアクセスし、基板をキャリアに形成された所定の位置に搬送したり、又は所定の位置から基板を取り出すために、自動的にティーチング処理を行う。
【0042】
そして、自動的にティーチング処理を行うために、この実施の形態では、2種類の治具を使用する。ここでは、この2種類の治具について説明する。
【0043】
まず、第1の治具(以下、「センタリング治具」という)は、図6に示すような構造となっている。図6(a)はセンタリング治具100を下方から見た平面図であり、図6(b)は、図6(a)の平面図におけるA−A断面図である。図6に示すように、センタリング治具100は、搬送装置による搬送の対象物である基板と略同形状の円形とされた薄板状の本体部110と、本体部110の中心位置に設けられた検出ピン120とを備えている。例えば、処理対象の基板が直径300mmの円盤状である場合は、センタリング治具の本体部110は、直径300mmよりも数mm程度大きい直径の円形である。しかし、このような形状に限定するものではなく、キャリアCに収納することができる形状であれば良く、少なくとも一部が基板の外形に沿った形状でも良い。
【0044】
そして、図6(b)に示すように検出ピン120の下部には、所定の直径を有する円柱状の被検出部122が設けられている。また、検出ピン120と本体部110との接合部は、被検出部122の直径よりも小さい所定の直径となっており、本体部110と被検出部122との間に凹部121が形成されている。なお、検出ピン120の被検出部122と凹部121の形状・寸法は、予め決められている。
【0045】
次に、第2の治具(以下、「センシング治具」という)は、図7に示すような構成となっている。図7(a)はセンシング治具200を上から見た平面図であり、図7(b)は、センシング治具200の側面図である。図7に示すように、センシング治具は、センタリング治具と同様に薄板状の本体部210を有している。そして、その本体部210には、投光部231,241と受光部232,242とが設けられており、投光部231と受光部232とで1つの光センサを形成し、同様に投光部241と受光部242とで別の1つの光センサを形成する。これら光センサの光軸は、図7(a)に示すように略直交するように設けられているとともに、図7(b)に示すように本体部210の下面から所定の高さ位置となる位置に設けられている。また、これら光センサの2つの光軸が交わる位置は、基板の中心に相当する位置から距離aだけアーム31の先端側に位置する。
【0046】
このセンシング治具200の本体部210の形状は、アーム31が保持できる形状であれば良く、少なくとも一部がアーム31に位置決め保持される形状、即ち基板の裏面周縁部と実際に接触して基板を支持するアーム31の基板支持部の配置に対応した形状であれば良く、例えばその一部が基板の外形に沿った形状でも良い。
【0047】
アーム31が、当該センシング治具200を搬送する際は、本体部210を保持した状態で搬送する。従って、センシング治具200がアーム31にセットされた際に、センシング治具200がアーム31に対して常に所定の位置関係となる位置に固定される。
【0048】
なお、投光部231,241と受光部232,242とを駆動するために接続される図示しないケーブルは、アーム31に設けられるコネクタに接続されるようになっている。
【0049】
<4.ティーチング処理を行うための搬送装置の制御機構>
次に、アーム31のアクセスする位置についてのティーチング処理を行うための制御機構について説明する。図8は、ティーチング処理を行うための制御機構を示すブロック図である。なお、図8には、上述したセンシング治具200が、アーム31に設置されている場合のブロック図を示している。
【0050】
図8に示すように、制御部130は、アーム31に対する駆動命令を出すCPU101と、予めプログラムが書き込まれたROM102と、ユーザプログラムや位置情報等を格納するRAM103と、インタフェース104と、サーボ制御部105とを備えている。そして、ROM102,RAM103,インタフェース104及びサーボ制御部105は全てCPU101に接続されている。
【0051】
インタフェース104には、コネクタ270を介してセンシング治具の光センサ230,240に接続されている。光センサ230は投光部231と受光部232とからなる光センサであり、光センサ240は投光部241と受光部242とからなる光センサである。
【0052】
サーボ制御部105は、Z軸駆動部D1、Y軸駆動部D2、X軸駆動部D3、θ軸回転駆動機構及びエンコーダE1,E2,E3,E4に接続されている。ここで、エンコーダE1はZ軸駆動部D1の駆動量を、エンコーダE2はY軸駆動部D2の駆動量を、エンコーダE3はX軸駆動部D3の駆動量を、エンコーダE4はθ軸回転駆動部D4の駆動量を、それぞれ検出するために設けられたものである。従って、各エンコーダE1,E2,E3,E4の出力をサーボ制御部105を介して得ることにより、CPU101は、搬送装置TR1の動作した変位量を検知することができ、これによって、CPU101は各アームの位置情報を得ることができる。また、CPU101は、サーボ制御部105に対してZ軸,Y軸,X軸,θ軸のそれぞれの駆動量を出力して搬送装置TR1の駆動を制御することができる。
【0053】
なお、θ軸回転駆動部D4は、主として、図1に示すようにキャリアCから受け取った基板をユニット配置部MP側に搬送するために搬送装置TR1を回転させる機構であるため、搬送装置TR1がキャリアCにアクセスする位置についてのティーチング処理は、X軸,Y軸,Z軸の3軸について行われる。
【0054】
また、制御部130のCPU101は、基板処理装置を統括的に制御するメインコントローラMCが接続されている。そして、メインコントローラMCには、オペレータに対して情報を表示するための表示部111と、オペレータが処理コマンド等を入力するための操作入力部112とが接続されている。
【0055】
<5.ティーチング処理1>
搬送装置TR1のアーム31がキャリアCの正確な収納位置にアクセスするように補正するためのティーチング処理について説明する。このようなティーチング処理の概要は、予めオペレータがキャリアCの任意の収納位置(棚)にセンタリング治具100をセットするとともに、アーム31上にセンシング治具200をセットした後、アーム31がセンタリング治具100がセットされたキャリアCに対して自動的にアクセスし、センシング治具200によってセンタリング治具100に形成された被検出部122を検出することによって各軸についての位置情報を取得し、この位置情報に基づいてアーム31のアクセスすべき正確な位置を得る処理である。以下、ティーチング処理の詳細について説明する。
【0056】
この実施の形態におけるティーチング処理では、図9に示すようにまず前処理(ステップS100)が行われ、その後に実際の自動ティーチング処理(ステップS200)が行われる。
【0057】
前処理(ステップS100)は、図10に示すような手順で行われる。図10に示すように、まず、オペレータが表示部111の表示内容を確認しつつ、操作入力部112よりティーチング処理を実行するコマンドを指定し、入力する(ステップS101)。このとき、ティーチング処理を行うキャリアCを選択するとともに、何段目の収納位置においてティーチング処理を行うかについても決定し、それらの入力も同時に行う。
【0058】
ステップS102において、メインコントローラMCは、ティーチング処理についてのコマンドを受信すると、ティーチング処理についての所定のプログラムを実行することをCPU101に命令するとともに、ティーチング処理を行うキャリアCに対するアーム31のアクセスする位置のベース値をCPU101に送信する。
【0059】
ステップS103において、搬送装置TR1のアーム31にセンシング治具200をセットする。そして、ステップS104において、ステップS101で選択したキャリアCの決定した収納位置にセンタリング治具100をセットする。このとき、センタリング治具100は、キャリアCの奥に接触するように設置されるとともに、検出ピン120は下方向に突出した状態で設置される。
【0060】
オペレータの介在する前処理は、以上であるため、実際に自動ティーチング処理を開始させるべく、オペレータは操作入力部112より前処理が完了したことを入力する(ステップS105)。
【0061】
なお、上記の前処理(ステップS100)において、オペレータが行う操作は、操作入力部112よりコマンドを入力することと、各アームに治具をセットすることのみであるため、オペレータの熟練度等は全く要求されない。
【0062】
以上のようにして前処理(ステップS100)が終了すると、図9の自動ティーチング処理(ステップS200)が開始される。自動ティーチング処理(ステップS200)では、図11に示す処理が順次に行われる。
【0063】
まず、ステップS201において、CPU101は、各軸についての駆動部を駆動し、アーム31をティーチング対象のキャリアCの1段目の所定の高さ位置に位置させる。そして、CPU101は、サーボ制御部105に対して、X軸についてのベース値の示す位置から距離aだけ手前側にアーム31を伸ばすように命令する。これにより、サーボ制御部105は、X軸駆動部D3を駆動し、アーム31をその位置に伸ばす。この状態は、図12に示すようになる。すなわち、光センサ230,240による光軸の交わる位置は、センタリング治具100に設けられた検出ピン120から垂下した位置付近となる。
【0064】
そして、ステップS202において、CPU101はZ軸駆動部D1を駆動するように命令を行い、アーム31を+Z方向に上昇させる。ここで上昇させる移動量は、各光センサ230,240による光軸がセンタリング治具100の検出ピン120によって遮られる状態となるような移動量である。センタリング治具100は、キャリアCの何段目に収納されているかは、上記の入力操作により既知であるので、+Z方向への移動量は、演算により求めることができる。そして、演算によって求められた移動量に基づいて、サーボ制御部105はアーム31を+Z方向にZ軸駆動部D1を駆動する。
【0065】
そして、ステップS203において、CPU101は、光センサ230,240の双方の出力を監視し、いずれか一方でもその出力が「OFF」となっていれば、警報を発し、オペレータにティーチング処理の続行が不可能であることを通知し、処理を終了する。
【0066】
ここで、光センサ230,240の出力が「OFF」であるのは、各投光部231,241から出射された光が受光部232,242で受光している場合であり、光センサ230,240の出力が「ON」であるのは、各投光部231,241から出射された光が受光部232,242で受光していない場合(すなわち、光が遮られている場合)である。
【0067】
従って、図12の状態からアーム31を+Z方向に上昇させた状態で、いずれか一方が「OFF」していれば、ティーチング可能な範囲でないと判断し、オペレータに通知することとしている。この場合、オペレータは、アーム31の取り付け等をやり直した後に、ティーチング処理を再スタートすることとなる。このような再スタートを行わなければならないのは、アーム31の取り付け等が大幅にズレている場合等であるので、通常は、ステップS202までの処理を行うと、両光センサ230,240の出力は「ON」となり、このような警報・停止ということにはならず、ステップS204へと進む。
【0068】
そして、ステップS204では、CPU101はアーム31を−Z方向(すなわち、下降させる方向)にアーム31を低速で移動させるべく、サーボ制御部105に命令を出す。そして、CPU101は、命令を出すとともに、光センサ230の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてZ軸駆動部D1を駆動し、アーム31を低速で下降させる。CPU101は、アーム31の下降中に光センサ230が「OFF」したことを検出すると、アーム31の下降動作を即時停止するようサーボ制御部105に命令する。これにより、サーボ制御部105はZ軸駆動部D1を停止させ、アーム31が停止する。
【0069】
そして、ステップS205において、アーム31を上昇させ、光センサ230による検出ポイント(すなわち、光の位置)を被検出部122のほぼ中央部に位置させる。ステップS204でアーム31が停止した位置は、検出ピン120の被検出部122の下端の位置である。また、検出ピン120の被検出部122の形状・寸法は設計上既知である。従って、このステップS205では、被検出部122の部分の高さの2分の1に相当する量だけ上昇させることとなる。
【0070】
ステップS205までの処理により、光センサ230による検出ポイントは、図13に示す位置P1に示す位置となる。
【0071】
そして、次に、ステップS210のY軸の位置情報検出処理が行われ、Y軸についての位置情報が検出される。具体的には、図14に示す手順が行われる。まず、ステップS211において、CPU101は、Y軸を低速で+Y方向に移動させるように命令するとともに、光センサ230の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてY軸駆動部D2を駆動し、アーム31を低速で+Y方向に移動させる。この動作により、図13に示すように位置P1にあった光センサ230の検出ポイントも+Y方向へと移動する。
【0072】
そして、ステップS212において、CPU101が光センサ230が「OFF」したことを認識すると、Y軸を即時停止するようにサーボ制御部105に命令する。サーボ制御部105は、この命令によりY軸駆動部D2を停止させる。そして、CPU101は、エンコーダE2より得られるY軸の現在位置をサーボ制御部105を介して取得し、位置情報YFとしてRAM103に格納する。
【0073】
この状態を、図13により説明すると、光センサ230の検出ポイントがアーム31の+Y方向への移動に伴って、右方向に移動し、光センサ230が被検出部122の右側のエッジ位置で「OFF」となり、CPU101は位置情報YFを取得する。
【0074】
そして、ステップS213において、CPU101は、Y軸を−Y方向に移動させる。このステップS213における−Y方向への移動は、光センサ230の検出ポイントの位置を被検出部122のエッジ位置から開放するものであり、光センサ230の出力が安定して「ON」状態となる位置に移動させるものであれば良い。
【0075】
そして、ステップS214において、CPU101は、Y軸を低速で−Y方向に移動させるように命令するとともに、光センサ230の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてY軸駆動部D2を駆動し、アーム31を低速で−Y方向に移動させる。この動作により、図13において、光センサ230の検出ポイントも−Y方向へと移動する。
【0076】
そして、ステップS215において、CPU101が光センサ230が「OFF」したことを認識すると、Y軸を即時停止するようにサーボ制御部105に命令する。サーボ制御部105は、この命令によりY軸駆動部D2を停止させる。そして、CPU101は、エンコーダE2より得られるY軸の現在位置をサーボ制御部105を介して取得し、位置情報YRとしてRAM103に格納する。
【0077】
この状態を、図13により説明すると、光センサ230の検出ポイントがアーム31の−Y方向への移動に伴って、左方向に移動し、光センサ230が被検出部122の左側のエッジ位置で「OFF」となり、CPU101は位置情報YRを取得する。
【0078】
そして、ステップS216において、CPU101は、Y軸の位置を「YR+(YF−YR)/2」の位置に移動させる。この位置は、すなわち、被検出部122の中央部である。従って、ステップS216を行うと、投光部231からの光は、被検出部122の中央部に照射されることとなる。以上で、図11のステップS210のY軸の位置情報検出の処理が終了する。
【0079】
そして、次に、図11に示すX軸の位置情報検出処理(ステップS220)が行われ、X軸についての位置情報が検出される。具体的には、図15に示す手順が行われる。まず、ステップS221において、CPU101は、X軸を低速で+X方向に移動させるように命令するとともに、光センサ240の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてX軸駆動部D3を駆動し、アーム31を低速で+X方向に移動させる。この動作により、図13に示すように位置P1にあった光センサ240の検出ポイントも+X方向へと移動する。
【0080】
そして、ステップS222において、CPU101が光センサ240が「OFF」したことを認識すると、X軸を即時停止するようにサーボ制御部105に命令する。サーボ制御部105は、この命令によりX軸駆動部D3を停止させる。そして、CPU101は、エンコーダE3より得られるX軸の現在位置をサーボ制御部105を介して取得し、位置情報XFとしてRAM103に格納する。
【0081】
この状態を、図13により説明すると、光センサ240の検出ポイントがアーム31の+X方向への移動に伴って、左方向に移動し、光センサ240が被検出部122の左側のエッジ位置で「OFF」となり、CPU101は位置情報XFを取得する。
【0082】
そして、ステップS223において、CPU101は、X軸を−X方向に移動させる。このステップS223における−X方向への移動は、光センサ240の検出ポイントの位置を被検出部122のエッジ位置から開放するものであり、光センサ240の出力が安定して「ON」状態となる位置に移動させるものであれば良い。
【0083】
そして、ステップS224において、CPU101は、X軸を低速で−X方向に移動させるように命令するとともに、光センサ240の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてX軸駆動部D3を駆動し、アーム31を低速で−X方向に移動させる。この動作により、図13において、光センサ240の検出ポイントも−X方向へと移動する。
【0084】
そして、ステップS225において、CPU101が光センサ240が「OFF」したことを認識すると、X軸を即時停止するようにサーボ制御部105に命令する。サーボ制御部105は、この命令によりX軸駆動部D3を停止させる。そして、CPU101は、エンコーダE3より得られるX軸の現在位置をサーボ制御部105を介して取得し、位置情報XRとしてRAM103に格納する。
【0085】
この状態を、図13により説明すると、光センサ240の検出ポイントがアーム31の−X方向への移動に伴って、右方向に移動し、光センサ240が被検出部122の右側のエッジ位置で「OFF」となり、CPU101は位置情報XRを取得する。
【0086】
そして、ステップS226において、CPU101は、X軸の位置を「XR+(XF−XR)/2−k」の位置に移動させる。ここで、凹部121における検出ピン120の半径rと、被検出部122における半径Rとを用いると、定数kは「r<k<R」を満たす数である。従って、ステップS226により、光センサ240の検出ポイントは、図13に示す被検出部122の位置P2に位置することとなる。以上で、図11のステップS220のX軸の位置情報検出の処理が終了する。
【0087】
そして、次に、図11に示すZ軸の位置情報検出処理(ステップS230)が行われ、Z軸についての位置情報が検出される。具体的には、図16に示す手順が行われる。まず、ステップS231において、CPU101は、Z軸を低速で+Z方向(すなわち、アーム31を上昇させる方向)に移動させるように命令するとともに、光センサ240の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてZ軸駆動部D1を駆動し、アーム31を低速で+Z方向に移動させる。この動作により、図13に示すように位置P2にあった光センサ240の検出ポイントも+Z方向へと移動する。
【0088】
そして、ステップS232において、CPU101が光センサ240が「OFF」したことを認識すると、Z軸を即時停止するようにサーボ制御部105に命令する。サーボ制御部105は、この命令によりZ軸駆動部D1を停止させる。そして、CPU101は、エンコーダE1より得られるZ軸の現在位置をサーボ制御部105を介して取得し、位置情報ZFとしてRAM103に格納する。
【0089】
この状態を、図13により説明すると、光センサ240の検出ポイントがアーム31の+Z方向への移動に伴って、上方向に移動し、光センサ240が被検出部122の上側のエッジ位置で「OFF」となり、CPU101は位置情報ZFを取得する。
【0090】
そして、ステップS233において、CPU101は、Z軸を−Z方向(アーム31を下降させる方向)に移動させる。このステップS233における−Z方向への移動は、光センサ240の検出ポイントの位置を被検出部122のエッジ位置から開放するものであり、光センサ240の出力が安定して「ON」状態となる位置に移動させるものであれば良い。
【0091】
そして、ステップS234において、CPU101は、Z軸を低速で−Z方向に移動させるように命令するとともに、光センサ240の出力が「OFF」となるのを監視する。サーボ制御部105は、CPU101からの命令に応じてZ軸駆動部D1を駆動し、アーム31を低速で−Z方向に移動させる。この動作により、図13において、光センサ240の検出ポイントも−Z方向へと移動する。
【0092】
そして、ステップS235において、CPU101が光センサ240が「OFF」したことを認識すると、Z軸を即時停止するようにサーボ制御部105に命令する。サーボ制御部105は、この命令によりZ軸駆動部D1を停止させる。そして、CPU101は、エンコーダE1より得られるZ軸の現在位置をサーボ制御部105を介して取得し、位置情報ZRとしてRAM103に格納する。
【0093】
この状態を、図13により説明すると、光センサ240の検出ポイントがアーム31の−Z方向への移動に伴って、下方向に移動し、光センサ240が被検出部122の下側のエッジ位置で「OFF」となり、CPU101は位置情報ZRを取得する。
【0094】
そして、ステップS236において、CPU101は、Z軸の位置をキャリアCの1段目の位置まで下降させるように命令する。これにより、サーボ制御部105は、アーム31を下降させ、図12に示すような状態とする。その後、CPU101は、X軸を原点に戻すように命令し、サーボ制御部105のX軸駆動部D3の駆動により、アーム31はキャリアCの内部から退避する。以上で、図11のステップS230のZ軸の位置情報検出の処理が終了する。
【0095】
以上で、Y軸,X軸,Z軸の3軸についての位置情報を検出したこととなり、次に、図11に示すステップS240において、上記処理で取得した位置情報YF,YR,XF,XR,ZF,ZRに基づいて、偏差補正演算処理が行われる。この偏差補正演算処理では、それぞれの位置情報に基づいて、メインコントローラMCから得られたベース値と、光センサによって取得した正確な収納位置との差(ズレ量)を求める。具体的には、メインコントローラMCが予め保持しているX軸,Y軸,Z軸についてのそれぞれのベース値をXa,Ya,Zaとし、アーム31のズレ量をそれぞれΔX,ΔY,ΔZとすると、ΔX,ΔY,ΔZはそれぞれ、
【0096】
【数1】

Figure 0003869098
【0097】
【数2】
Figure 0003869098
【0098】
【数3】
Figure 0003869098
【0099】
として表される。ここで、数3における定数hは、センタリング治具100が収納された位置に応じた値であり、収納位置とセンタリング治具100の検出ピン120の寸法などから求まる値である。
【0100】
そして、ステップS240においてCPU101は、RAM103に格納した位置情報YF,YR,XF,XR,ZF,ZRを読み出し、これらを数1〜数3に基づいて演算することにより、それぞれの軸方向についてのアーム31のズレ量ΔX,ΔY,ΔZを得ることができる。
【0101】
数1は、X軸についての予め設定されているベース値Xaと、X軸の位置情報検出処理(ステップS220)で検出した被検出部122の中心となるアームの位置との差分を求める式であり、検出したX軸上の位置が、本来の基板の中心の位置から距離aだけズレた位置で検出しているため、距離aについても考慮している。
【0102】
また、数2は、Y軸についての予め設定されているベース値Yaと、Y軸の位置情報検出処理(ステップS210)で検出した被検出部122の中心となるアームの位置との差分を求める式である。
【0103】
さらに、数3は、Z軸についての予め設定されているベース値Zaと、センタリング治具100が収納された位置におけるセンタリング治具100の本体部110の下面の高さ位置との差分を求める式である。
【0104】
これら数1〜数3により、各軸について得られたズレ量に基づいてアーム31がキャリアCに対してアクセスして基板の収納又は取り出しを行う際の基準位置となる正確な収納位置を求めることができる。
【0105】
そして、ステップS240でそれぞれの軸についての演算を行った後、ステップS250において、ステップS240で求めた値に基づいて正確なアーム31の基板の収納又は取り出しを行う際の基準位置となる収納位置を設定する。CPU101は、ズレ量ΔX,ΔY,ΔZをメインコントローラMCに出力し、メインコントローラMCがこれらの値に基づいて正確なキャリアCに対する収納位置を設定する。例えば、メインコントローラMCは、X軸,Y軸,Z軸についてはズレ量ΔX,ΔY,ΔZをベース値Xa,Ya,Zaのオフセット値として登録する。
【0106】
なお、上記ティーチング処理においては、任意のキャリアC内の複数の収納位置のうち1つの収納位置について位置情報を取得したが、複数の収納位置は所定の等間隔で形成されているため、1つの収納位置について位置情報を取得すれば、他の収納位置については演算によって正確な収納位置を求めることができる。また、上記のティーチング処理においては、複数のキャリアCのうちの1つのキャリアCについてティーチング処理を行ったが、複数のキャリアCは、Y軸に沿って等間隔に配置されているため、1つのキャリアCについて位置情報を取得すれば、他のキャリアCについては演算によって正確な収納位置を求めることができる。
【0107】
以上のようにして、X軸,Y軸,Z軸について、搬送装置TR1のアーム31がキャリアCにアクセスして基板の収納又は取り出しを行う際の基準位置となる収納位置についてのティーチング処理が終了する。なお、図11のフローチャートにおいて、CPU101は、ステップS201〜ステップS230の処理を行う際には位置情報を取得する制御手段として機能し、ステップS240及びS250の処理を行う際にはアーム31がキャリアCに対してアクセスして基板の収納又は取り出しを行う際の基準位置としての正確な収納位置を設定する設定手段として機能する。
【0108】
以上のような処理を行うことにより、正確かつ短時間で効率的に搬送装置TR1のアーム31がキャリアに対してアクセスすべき正確な収納位置を設定することができ、組立誤差等による偏差を解消することができる。
【0109】
また、キャリアが、ポッド(POD)と呼ばれるような基板を外気に晒さない収納容器である場合についても、自動的にティーチング処理を行うことができるため、オペレータが目視にてアームと収納位置との位置関係を確認することは必要なく、オペレータの負担を低減することができる。
【0110】
<6.ティーチング処理2>
ところで、上記のようなティーチング処理では、各軸についてアーム31を駆動する際には、各位置情報を的確に得るために低速で駆動する必要がある。また、各位置情報を得るためにアーム31を一方向にのみ移動させるものであるため、光軸の微妙なズレ等により検出する被検出部122のエッジがズレる可能性がある。そこで、上記のようなティーチング処理をさらに効率的に、かつ精度良く行うために次に示すような方法を行っても良い。
【0111】
ティーチング処理の全体的な処理手順は、図11のフローチャートと同様である。そして、図11に示すステップS210,S220,S230の処理を行う際は、アーム31を停止させずに位置情報を取り込むとともに、各軸について被検出部122を検出する際に、被検出部122の一対のエッジとクロスする所定の軌跡に沿ってプラス方向とマイナス方向にアーム31を往復動作させて4点の位置情報を取り込む。そして、これら4点の位置情報を平均することにより、被検出部122の中心を導くようにすることにより、アームを移動させる速度を上げることができるとともに、検出する位置情報の精度をも上昇させることができる。
【0112】
この場合の図11に示すステップS210のY軸の位置情報を検出する処理は、図17に示すような手順となる。また、図17に示す手順において、光センサ230の検出ポイントの移動する軌跡を図18に示す。
【0113】
まず、ステップS311において、Y軸を−Y方向に移動させ、光センサ230が安定して「OFF」する位置に光センサ230の検出ポイントを移動させる。このステップS311により、光センサ230の検出ポイントは図18に示す位置P3に移動することとなる。
【0114】
そして、ステップS312において、アーム31を+Y方向に移動開始させ、光センサ230が「ON」した位置を位置情報YF1としてRAM103に格納する。すなわち、はじめに図18の位置P3にある検出ポイントがアーム31の移動に伴って被検出部122に向かって移動し、被検出部122の左側のエッジを検出すると、そのエッジ位置を位置情報YF1として取得する。この位置情報YF1を取り込むときもアーム31は+Y方向に移動し続ける。
【0115】
そして、ステップS313において光センサ230が「OFF」した位置を位置情報YF2としてRAM103に格納する。このときのYF2の位置は、図18に示す被検出部122の右側のエッジ位置である。これにより、被検出部122の一対のエッジに対して順方向についてのエッジ検出を行ったこととなる。なお、この位置情報YF2を取り込むときもアーム31は+Y方向に移動し続ける。
【0116】
そして、ステップS314において光センサ230が「OFF」した位置から5mm程度移動させる。アーム31の往復移動させる際の折り返し点を光センサ230が「OFF」した位置とすると、光センサ230のON/OFFの切り替わり点が折り返し点となるため、好ましくない。そこで、ステップS314において光センサ230が「OFF」した位置から5mm程度移動させることとしたものであり、5mmに限定するものではない。
【0117】
そして、ステップS315において、アーム31を−Y方向に移動開始し、光センサ230が「ON」した位置を位置情報YR1としてRAM103に格納する。このときのYR1の位置は、図18に示す被検出部122の右側のエッジ位置である。
【0118】
アーム31は−Y方向に移動し続け、ステップS316において、光センサ230が「OFF」した位置を位置情報YR2としてRAM103に格納する。このときのYR2の位置は、図18に示す被検出部122の左側のエッジ位置である。これにより、被検出部122の一対のエッジに対して逆方向についてのエッジ検出を行ったこととなる。
【0119】
そして、ステップS317において、アーム31のY軸についての位置を「(YF1+YF2+YR1+YR2)/4」の位置に移動させる。この位置は、図18からも判るように被検出部122の中心位置である。
【0120】
このようにして、図11に示すステップS210のY軸の位置情報を検出する処理が終了する。
【0121】
次に、図11に示すステップS220のX軸の位置情報を検出する処理は、図19に示すような手順となる。また、図19に示す手順において、光センサ240の検出ポイントの移動する軌跡は、先と同様に図18を参照する。
【0122】
まず、ステップS321において、X軸を−X方向に移動させ、光センサ240が安定して「OFF」する位置に光センサ240の検出ポイントを移動させる。このステップS321により、光センサ240の検出ポイントは図18に示す位置P3に移動することとなる。
【0123】
そして、ステップS322において、アーム31を+X方向に移動開始させ、光センサ240が「ON」した位置を位置情報XF1としてRAM103に格納する。すなわち、はじめに図18の位置P3にある検出ポイントがアーム31の移動に伴って被検出部122に向かって移動し、被検出部122の左側のエッジを検出すると、そのエッジ位置を位置情報XF1として取得する。この位置情報XF1を取り込むときもアーム31は+X方向に移動し続ける。
【0124】
そして、ステップS323において光センサ240が「OFF」した位置を位置情報XF2としてRAM103に格納する。このときのXF2の位置は、図18に示す被検出部122の右側のエッジ位置である。これにより、被検出部122の一対のエッジに対して順方向についてのエッジ検出を行ったこととなる。なお、この位置情報XF2を取り込むときもアーム31は+X方向に移動し続ける。
【0125】
そして、ステップS324において光センサ240が「OFF」した位置から5mm程度移動させる。このステップS324の処理の意味は、Y軸についての上記ステップS314の場合と同様である。
【0126】
そして、ステップS325において、アーム31を−X方向に移動開始し、光センサ240が「ON」した位置を位置情報XR1としてRAM103に格納する。このときのXR1の位置は、図18に示す被検出部122の右側のエッジ位置である。
【0127】
アーム31は−X方向に移動し続け、ステップS326において、光センサ240が「OFF」した位置を位置情報XR2としてRAM103に格納する。このときのXR2の位置は、図18に示す被検出部122の左側のエッジ位置である。これにより、被検出部122の一対のエッジに対して逆方向についてのエッジ検出を行ったこととなる。
【0128】
そして、ステップS327において、アーム31のX軸についての位置を「(XF1+XF2+XR1+XR2)/4+k」の位置に移動させる。ここで、定数kは、上述したように、凹部121における検出ピン120の半径rと、被検出部122における半径Rとを用いると、定数kは「r<k<R」を満たす数である。
【0129】
このようにして、図11に示すステップS220のX軸の位置情報を検出する処理が終了する。
【0130】
次に、図11に示すステップS230のZ軸の位置情報を検出する処理は、図20に示すような手順となる。また、図20に示す手順において、光センサ240の検出ポイントの移動する軌跡は図18に示す。
【0131】
まず、ステップS331において、Z軸を−Z方向(すなわち、アーム31を下降させる方向)に移動させ、光センサ240が安定して「OFF」する位置に光センサ240の検出ポイントを移動させる。このステップS331により、光センサ240の検出ポイントは図18に示す位置P4に移動することとなる。
【0132】
そして、ステップS332において、アーム31を+Z方向(すなわち、アーム31を上昇させる方向)に移動開始させ、光センサ240が「ON」した位置を位置情報ZF1としてRAM103に格納する。すなわち、はじめに図18の位置P4にある検出ポイントがアーム31の移動に伴って上昇し、被検出部122の下側のエッジを検出すると、そのエッジ位置を位置情報ZF1として取得する。この位置情報ZF1を取り込むときもアーム31は+Z方向に移動し続ける。
【0133】
そして、ステップS333において光センサ240が「OFF」した位置を位置情報ZF2としてRAM103に格納する。このときのZF2の位置は、図18に示す被検出部122の上側のエッジ位置である。これにより、被検出部122の上下方向についての一対のエッジに対して順方向についてのエッジ検出を行ったこととなる。なお、この位置情報ZF2を取り込むときもアーム31は+X方向に移動し続ける。
【0134】
そして、ステップS334において光センサ240が「OFF」した位置から数mm程度移動させる。このステップS324の処理の意味についても、光センサ240の出力が安定して「OFF」となるようにするための処理である。
【0135】
そして、ステップS335において、アーム31を−Z方向に移動開始し、光センサ240が「ON」した位置を位置情報ZR1としてRAM103に格納する。このときのZR1の位置は、図18に示す被検出部122の上側のエッジ位置である。
【0136】
アーム31は−Z方向に移動し続け、ステップS336において、光センサ240が「OFF」した位置を位置情報ZR2としてRAM103に格納する。このときのZR2の位置は、図18に示す被検出部122の下側のエッジ位置である。これにより、被検出部122の上下方向についての一対のエッジに対して逆方向についてのエッジ検出を行ったこととなる。
【0137】
そして、ステップS337において、Z軸の位置をキャリアCの1段目の位置まで下降させ、X軸を原点に戻す。これにより、アーム31はキャリアCの内部から退避する。
【0138】
このようにして、図11に示すステップS230のZ軸の位置情報を検出する処理が終了する。
【0139】
以上の処理により、X軸,Y軸,Z軸についてそれぞれ4点の位置情報を取得したこととなる。
【0140】
そして、図11に示す次のステップS240において偏差補正演算処理を行って、アーム31のズレ量を求める。具体的には、ΔX,ΔY,ΔZはそれぞれ、
【0141】
【数4】
Figure 0003869098
【0142】
【数5】
Figure 0003869098
【0143】
【数6】
Figure 0003869098
【0144】
として表される。従って、ステップS240においてCPU101はRAM103に格納した12個の位置情報XF1,XF2,XR1,XR2,YF1,YF2,YR1,YR2,ZF1,ZF2,ZR1,ZR2を読み出し、これらを数4〜数6に基づいて演算することにより、それぞれの軸方向についてのアーム31のズレ量ΔX,ΔY,ΔZを得ることができる。
【0145】
そして、ステップS240でそれぞれの軸についてのズレ量を導いた後、ステップS250において、ステップS240で求めた値に基づいて正確なアーム31のアクセスすべき収納位置を設定する。CPU101は、ズレ量ΔX,ΔY,ΔZをメインコントローラMCに出力し、メインコントローラMCがこれらの値に基づいて正確な収納位置を設定する。
【0146】
以上のようにして、X軸,Y軸,Z軸について、搬送装置TR1のアーム31がキャリアCにアクセスする際の収納位置についてのティーチング処理が終了する。
【0147】
ここで、アーム31を高速で動作させるながら位置情報を取り込む場合は、本来のON・OFFすべき位置から少しズレることがある。例えば、Y軸について考えると、図21に示すように、アーム31を+Y方向に高速移動させる際の光センサ230の出力をSGN1とすると、光センサ230のON・OFFする位置が本来のON・OFFすべき位置(すなわち、被検出部122のエッジ位置)に対して遅れることがある。同様に、アーム31を−Y方向に高速移動させる際の光センサ230の出力をSGN2とすると、光センサ230のON・OFFする位置が本来のON・OFFすべき位置に対して遅れることがある。これらは、光センサ230の応答特性にも依存する部分があるが、+Y方向と−Y方向とのアーム31の移動速度を等しくすれば、+Y方向と−Y方向との遅れは等しくなる。
【0148】
従って、上記のように4点測定を行い、その4点の平均を導くことで、このような光センサの出力が遅れることを解消することができる。その結果、このような4点測定を行う場合は、応答特性の優れた高価な光センサを用いる必要がなく、比較的安価な光センサを用いて高精度に測定することができる。
【0149】
このように、各軸について4点測定を行うことにより、比較的高速でアーム31を移動させることができ、ティーチング処理の高速化を図ることができるとともに、4点の平均をとって偏差を導くため、ティーチングにおける精度を向上させることができる。
【0150】
なお、ここで示したようなティーチング処理は、アーム31を移動させつつ、位置情報を取り込む処理であるため、複数のタスクを同時に実行することができるいわゆるマルチタスク処理となる。例えば、上記のようなプログラムの各ステップを順次に実行するタスクと、リアルタイムで各軸の駆動部D1〜D3に対する指令値を算出するタスクと、光センサからの出力をリアルタイムで監視するタスク等の複数のタスクが、CPU101によって並行処理されることにより、アーム31を移動させながら、各位置情報を取り込むことが可能となる。
【0151】
以上のような処理を行うことにより、オペレータの負担を低減するとともに、正確かつ短時間で効率的に搬送装置TR1のアーム31がキャリアに対してアクセスすべき正確な収納位置を設定することができ、組立誤差等による偏差を解消することができる。また、さらに、上記「ティーチング処理1」と比較すると、高速でアーム31を移動させることができるとともに、ティーチングの精度も上昇させることができる。
【0152】
<7.変形例>
上記説明におけるティーチング処理は、インデクサID(図1参照)に設けられた搬送装置TR1にのみ適用されるものではなく、ポッド等のキャリアに対して基板の収納又は取り出しを行う搬送装置に適用可能であることは言うまでもない。例えば、インターフェイスIFに設けられた搬送装置TR3等にも適用可能である。
【0153】
また、上記説明における各軸についての移動方向は、プラス方向とマイナス方向とを入れ替えても同様の結果を得ることができることは言うまでもない。
【0154】
さらに、上記説明においては、基板処理装置における搬送装置TR1のティーチングについて説明したが、このようなティーチング処理は、基板を搬送する搬送装置以外の搬送装置についても適用することができる。すなわち、アームが被搬送物を保持した状態で、被搬送物を所定の収納容器に搬送して収納する一般的な搬送装置について、アームが正確に所定の収納位置にアクセスするように行うティーチング処理としても適用できる。従って、被搬送物を基板に限定するものではない。
【0155】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、収納容器の所定位置に第1の治具が設置され、かつ、アームに第2の治具を保持させた状態で、第1の治具に対して第2の治具を所定の相対的位置関係になるまで近接させ、当該近接状態においてアームをそれぞれ異なる複数の方向に移動させることによって、複数の方向のそれぞれについて第1の治具を検出して位置情報として取得し、当該位置情報に基づいて、アームが収納容器に対して被搬送物の収納又は取り出しを行う際の基準位置を設定するため、オペレータの負担を低減するとともに、正確かつ短時間で効率的に搬送装置がアクセスする位置の位置ズレを解消することができる。
【0156】
請求項2に記載の発明によれば、被検出部の一対のエッジのそれぞれとクロスする所定の軌跡の順方向に沿ってセンサの検出ポイントが移動するようにアームを移動させ、一対のエッジのそれぞれがセンサで検出された際の位置を一対の順方向エッジ位置として取得するととももに、順方向とは逆の方向に沿ってセンサの検出ポイントが移動するようにアームを移動させ、一対のエッジのそれぞれがセンサで検出された際の位置を一対の逆方向エッジ位置として取得し、一対の順方向エッジ位置と一対の逆方向エッジ位置とに基づいて位置情報を得るため、アームを高速移動させることができるとともに、精度を上げることもでき、高効率かつ高精度に搬送装置がアクセスする位置の位置ズレを解消することができる。
【0157】
請求項3に記載の発明によれば、アームを移動させつつ当該移動と並行してセンサによる被検出部の検出出力を取り込むため、効率的に位置情報を取得することができる。
【0158】
請求項4に記載の発明によれば、基板搬入搬出装置において、載置台に載置される収納容器に対してアクセスする搬送装置のアームの位置ズレを正確かつ短時間で効率的に解消することができる。
【0159】
請求項5に記載の発明によれば、基板処理装置において、基板が収納される収納容器に対してアクセスする搬送装置のアームの位置ズレを正確かつ短時間で効率的に解消することができる。
【図面の簡単な説明】
【図1】この発明の実施の形態における基板処理装置を示す概略図である。
【図2】この発明の実施の形態における基板処理装置のインデクサに設けられる搬送装置の外観斜視図である。
【図3】この発明の実施の形態における搬送装置のアームの内部構造を示す側方断面図である。
【図4】この発明の実施の形態における搬送装置のアームの動作を概念的に説明する図である。
【図5】この発明の実施の形態における搬送装置の伸縮昇降機構を説明するための側面断面図である。
【図6】この発明の実施の形態におけるセンタリング治具(第1の治具)を示す図である。
【図7】この発明の実施の形態におけるセンシング治具(第2の治具)を示す図である。
【図8】この発明の実施の形態におけるティーチング処理を行うための制御機構を示すブロック図である。
【図9】この発明の実施の形態におけるティーチング処理の全体的処理を示すフローチャートである。
【図10】この発明の実施の形態におけるティーチング処理の前処理を示すフローチャートである。
【図11】この発明の実施の形態におけるティーチング処理の自動ティーチング処理を示すフローチャートである。
【図12】この発明の実施の形態においてアームがキャリアにアクセスした状態を示す図である。
【図13】この発明の実施の形態におけるティーチング処理の際の光センサによる検出ポイントの移動方向を示す図である。
【図14】この発明の実施の形態におけるティーチング処理のY軸の位置情報検出処理を示すフローチャートである。
【図15】この発明の実施の形態におけるティーチング処理のX軸の位置情報検出処理を示すフローチャートである。
【図16】この発明の実施の形態におけるティーチング処理のZ軸の位置情報検出処理を示すフローチャートである。
【図17】この発明の実施の形態におけるティーチング処理の図14とは異なるY軸の位置情報検出処理を示すフローチャートである。
【図18】この発明の実施の形態におけるティーチング処理の際の光センサによる検出ポイントの移動方向(軌跡)を示す図である。
【図19】この発明の実施の形態におけるティーチング処理の図15とは異なるX軸の位置情報検出処理を示すフローチャートである。
【図20】この発明の実施の形態におけるティーチング処理の図16とは異なるZ軸の位置情報検出処理を示すフローチャートである。
【図21】この発明の実施の形態においてアームを高速で移動させた際の光センサの出力を示す説明図である。
【符号の説明】
31 アーム
101 CPU
130 制御部
100 センタリング治具(第1の治具)
200 センシング治具(第2の治具)
122 被検出部
110,210 本体部
230,240 光センサ
231,241 投光部
232,242 受光部
TR1 搬送装置
D1 Z軸駆動部
D2 Y軸回転駆動部
D3 X軸駆動部
D4 θ軸回転駆動部
E1,E2,E3,E4 エンコーダ
W 基板[0001]
BACKGROUND OF THE INVENTION
  The present invention relates to a transport device for transporting an object to be transported with respect to a storage container, a substrate carry-in / out device,as well asSubstrate processing equipmentIn placeRelated.
[0002]
[Prior art]
Conventionally, a substrate processing apparatus for processing a thin plate substrate (hereinafter simply referred to as “substrate”) such as a semiconductor wafer or a glass substrate for liquid crystal has been provided with a plurality of processing units. Each processing unit performs different processing. Such a conventional substrate processing apparatus is provided with a transport device for transporting a substrate, and an arm of the transport device takes out the substrate one by one from a carrier accommodating a plurality of substrates, and a plurality of processing units are provided. To the processed unit.
[0003]
In such a transport apparatus, it is necessary that the arm always accesses an accurate position with respect to the carrier, transports the substrate to a predetermined position formed on the carrier, or takes out the substrate from the predetermined position. . Here, if the position accessed by the arm is shifted from the correct storage position, the substrate may be damaged or unnecessary particles may be attached to the substrate, which is not preferable.
[0004]
However, in reality, due to various errors such as processing errors of members constituting the arm that holds the substrate, mounting errors when mounting each member, and assembly errors when assembling the transporting device, The arm does not access the correct storage position, and the arm is displaced from the correct storage position.
[0005]
In order to eliminate such misalignment due to an error or the like, an operator has conventionally performed a teaching operation on the transport device prior to actually transporting the substrate. This teaching work must be performed every time the apparatus is maintained.
[0006]
[Problems to be solved by the invention]
The teaching operation of the transfer device in the conventional substrate processing apparatus as described above is performed by placing the substrate on the arm and moving the arm little by little manually by the operator, bringing the arm closer to the predetermined storage position of the carrier and visually Was to combine. Therefore, the conventional teaching work is a very troublesome and time-consuming work. In addition, there is a large difference in accuracy depending on the experience and technical skill of the operator who performs the teaching work.
[0007]
Further, when the carrier is a substrate storage container that does not expose a substrate called a pod (POD) to the outside air, since the airtightness is required, the carrier is configured to have no gap. Therefore, when performing the teaching work visually, it is very difficult to confirm the positional relationship between the arm and the storage position.
[0008]
In this way, the teaching work is burdened by the operator, and it takes time for the teaching work and variations in accuracy are not preferable from the viewpoint of operating the substrate processing apparatus efficiently and accurately. .
[0009]
  Therefore, the present invention has been made in view of the above problems, and while reducing the burden on the operator, a transport device, a substrate loading / unloading device, which can eliminate positional displacement accurately and in a short time,as well asSubstrate processing equipmentPlaceThe purpose is to provide.
[0010]
[Means for Solving the Problems]
  In order to achieve the above object, the invention described in claim 1 is a transfer device that stores or takes out a transfer object with respect to a storage container by means of an arm, and (a) the first is placed at a predetermined position of the storage container. In a state where the jig is installed and the arm holds the second jig, the second jig is brought close to the first jig until a predetermined relative positional relationship is reached, Control means for detecting the first jig in each of the plurality of directions and acquiring it as position information by moving the arms in different directions in the proximity state; and (b) based on the position information Setting means for setting a reference position when the arm stores or removes the object to be transported from the storage container;One of the first and second jigs is formed with a detected part having a predetermined shape at least at a part thereof, and the other of the first and second jigs Is provided with a sensor that is sensitive to the detected part. (a1) A movement control means for moving the arm so that the detection point of the sensor moves along each of at least three trajectories passing across the detected part; (a2) By acquiring the pair of edges of the detected part detected by the sensor in the process of the detection point of the sensor moving along each of at least three trajectories as a pair of edge detection positions, at least three pairs of the detected part are detected. Edge position detection means for acquiring the edge detection position of (a3) Position information acquisition means for acquiring position information based on at least three pairs of edge detection positions;It has.
[0011]
  The invention according to claim 2 is the conveying apparatus according to claim 1.The edge position detecting means is (a2-1) By acquiring, as a pair of forward edge detection positions, a pair of edges detected by the sensor in a process in which the detection point of the sensor moves along the forward direction of each of at least three trajectories Forward direction detecting means for obtaining at least three pairs of forward edge detection positions for: (a2-2) By acquiring the pair of edges of the detected portion detected by the sensor in the process of the detection points of the sensor moving along the opposite directions of at least three trajectories as a pair of reverse edge detection positions, Reverse direction detection means for acquiring at least three pairs of reverse edge detection positions, and the position information acquisition means includes at least three pairs of forward edge detection positions and at least three pairs of reverse edge detection positions. Get location information based onIt is characterized by that.
[0012]
According to a third aspect of the present invention, in the apparatus according to the second aspect, each of the forward direction detecting means and the backward direction detecting means moves the arm while detecting the detection output of the detected portion by the sensor in parallel with the movement. It is characterized by taking in.
[0013]
The invention according to claim 4 is provided with a mounting table for mounting a storage container for storing a plurality of substrates, and as a substrate transfer means for loading and unloading the substrate with respect to the storage container mounted on the mounting table. A conveying device according to any one of claims 1 to 3 is provided.
[0014]
The invention according to claim 5 includes a processing unit that performs a predetermined process on the substrate, takes out the substrate from the storage container, transports the substrate to the processing unit, and processes the substrate after the predetermined process is completed in the processing unit. As a substrate transfer means for receiving from the storage and storing in the storage container, the transfer apparatus according to any one of claims 1 to 3 is provided.
[0018]
DETAILED DESCRIPTION OF THE INVENTION
<1. Overall configuration of substrate processing apparatus>
First, the overall configuration of the substrate processing apparatus according to the present invention will be described. FIG. 1 is a schematic plan view showing a substrate processing apparatus in this embodiment.
[0019]
As shown in FIG. 1, in this embodiment, the substrate processing apparatus includes an indexer ID, a unit arrangement unit MP, and an interface IF.
[0020]
The indexer ID is provided with a transport device TR1 for transporting the substrate W. The transport device TR1 takes out the substrate W from the carrier C as a storage container and carries it out to the unit placement unit MP, or a predetermined process is completed. The substrate W thus received is received from the unit placement unit MP and stored in the carrier C. Thus, the indexer ID functions as a substrate carry-in / out device in relation to the unit arrangement unit MP.
[0021]
The unit arrangement unit MP includes coating processing units SC1 and SC2 (spin coaters) that perform resist coating processing while rotating the substrate as liquid processing units that perform processing with the processing liquid on the four corners of the substrate, and the substrate after exposure. Development processing units SD1 and SD2 (spin developers) that perform development processing are provided, and a cleaning processing unit SS that rotates and cleans the substrate by supplying a cleaning liquid such as pure water to the substrate between the coating processing units SC1 and SC2. (Spin scrubber) is arranged. Further, a plurality of heat treatment units for performing heat treatment such as a cool plate portion for cooling the substrate and a hot plate portion for heat treatment are disposed above the liquid treatment units. A transport device TR2 is provided in the central portion of the unit arrangement unit MP, and the transport device TR2 performs a predetermined process on the substrate W by sequentially transporting the substrate W between the liquid processing unit and the heat treatment unit. be able to.
[0022]
The interface IF is provided to pass the substrate on which the resist coating has been completed in the unit arrangement unit MP to the exposure apparatus side (not shown) or to receive the exposed substrate from the exposure apparatus side. Inside the interface IF, a transfer device TR3 is provided for receiving a substrate from the unit arrangement unit MP and passing the exposed substrate to the unit arrangement unit, and temporarily stocks the substrate. The carrier C which is a storage container is provided.
[0023]
In the substrate processing apparatus configured as described above, for the transfer apparatus that transfers the substrate to the carrier C, the arm of the transfer apparatus always accesses the correct position with respect to the carrier C, and the substrate is formed on the carrier C. It is necessary to transport to a predetermined position (shelf) or take out the substrate from the predetermined position (shelf). However, by automatically teaching these transport devices, the burden on the operator is reduced. A description will be given below of the contents for eliminating the positional deviation due to the assembly error of the transfer device accurately and efficiently in a short time.
[0024]
<2. Conveyor configuration>
Next, the transport device TR1 in the indexer ID will be described. FIG. 2 is an external perspective view of the transport device TR1. The transport device TR1 includes an arm 31 that holds a circular substrate, and a horizontal movement mechanism (X-axis movement mechanism) that causes the arm 31 to bend and extend in the horizontal direction, and an expansion / contraction mechanism that moves in the vertical direction while expanding and contracting ( Z-axis drive mechanism) and a parallel movement mechanism (Y-axis movement mechanism) are provided so as to move the transport device TR1 along the ball screw 77 and the guide rail 76 provided in the Y-axis direction. Further, the transport device TR1 also includes a rotation drive mechanism that rotates around the vertical axis at the center of the transport device TR1 in order to take out the substrate W of the carrier C shown in FIG. 1 and transport it to the unit placement unit MP.
[0025]
First, the bending / extending movement of the arm 31 will be described. The arm 31 is configured as shown in FIG. FIG. 3 is a side sectional view showing the internal structure of the arm 31. The arm 31 includes a first arm segment 34 on the front end side on which the substrate W is placed, a second arm segment 33 that rotatably supports the first arm segment 34 in a horizontal plane, and the second arm segment 33. A third arm segment 32 that is rotatably supported in the horizontal plane, an X-axis drive unit D3 that rotates the third arm segment 32 in the horizontal plane, and the third arm segment 32 is rotated by the X-axis drive unit D3. Power transmission means 46, which is a bending and stretching mechanism that transmits power to the second arm segment 33 and the first arm segment 34 when they are moved to control their posture and moving direction, is provided.
[0026]
A first rotation shaft 51 is vertically fixed to a base end portion of the first arm segment 34 so as to be lowered. Further, a first bearing hole 52 for pivotally supporting the first rotation shaft 51 is formed at the distal end portion of the second arm segment 33. In addition, a second rotating shaft 53 is vertically fixed to the base end portion of the second arm segment 33. The third arm segment 32 is set to have the same length as that of the second arm segment 33, and a second bearing hole 54 for rotatably supporting the second rotation shaft 53 is formed at the tip of the third arm segment 32. Has been. In addition, a third rotating shaft 55 to which the rotational force of the X-axis driving unit D3 is transmitted is fixed to the base end portion of the third arm segment 32 downward.
[0027]
The power transmission means 46 includes a first pulley 61 fixed to the lower end of the first rotation shaft 51, a second pulley 62 fixed to the second rotation shaft 53 on the upper surface side of the second bearing hole 54, A first belt 63 suspended between the first pulley 61 and the second pulley 62; a third pulley 64 fixed to the lower end of the second rotating shaft 53; and a third arm segment 32 fixed to the third arm segment 32. A fourth pulley 65 for loosely fitting the rotating shaft 55 and a second belt 66 suspended between the third pulley 64 and the fourth pulley 65 are provided.
[0028]
Here, the diameter of the first pulley 61 and the diameter of the second pulley 62 are set to 2 to 1, and the diameter of the third pulley 64 and the diameter of the fourth pulley 65 are set to 1 to 2. . The distance from the first rotation shaft 51 to the second rotation shaft 53 and the distance from the second rotation shaft 53 to the third rotation shaft 55 are set to the same length R.
[0029]
FIG. 4 is a diagram for conceptually explaining the operation of the arm 31. The operation will be described with reference to FIGS. 3 and 4. When the X-axis drive unit D3 rotates the third arm segment 32b counterclockwise by the angle α via the third rotation shaft 55, the third arm segment 32 is moved. The second rotating shaft 53 supported at the tip portion rotates clockwise through the second belt 66 and the third pulley 64 by an angle β = 2α that is twice the third rotating shaft 55. As a result, the first rotation shaft 51 supported at the tip of the second arm segment 33 advances straight in the X-axis direction. At this time, the rotation angle of the first rotation shaft 51 is controlled through the second pulley 62 and the first belt 63. Here, when the second arm segment 33 is used as a reference, the first rotation shaft 51 rotates counterclockwise by an angle γ = α that is ½ times the second rotation shaft 53. The second arm segment 33 itself rotates, and as a result, the first arm segment 34 advances straight in the X-axis direction while maintaining the posture with respect to the X-axis drive unit D3. In this way, the arm 31 of the transport device TR1 performs a bending / extending motion along the X axis.
[0030]
Next, the telescopic lifting mechanism and the rotation driving mechanism of the transport device TR1 will be described. 2 is a so-called telescopic extension / contraction mechanism, the cover 41d can be stored in the cover 41c, the cover 41c can be stored in the cover 41b, and the cover 41b can be stored in the cover 41a. It can be stored. When the arm 31 is lowered, the cover can be sequentially stored, and conversely, when the arm 31 is raised, the stored cover is sequentially pulled out. .
[0031]
The transport device TR1 is installed on a base 44, and a rotation drive mechanism is configured so that the transport device TR1 can rotate around the center of the base 44. The lower part of the base 44 is attached to a ball screw 77 and a guide rail 76.
[0032]
FIG. 5 is a side cross-sectional view for explaining the operation of the transport device TR1. As shown in FIG. 5, the inside of the transport device TR1 has a so-called telescopic multi-stage nesting structure, and when it is contracted, the elevating member 42a is accommodated in the elevating member 42b, and the elevating member 42b is attached to the elevating member 42c. The elevating member 42c is accommodated in the elevating member 42d, and the elevating member 42d is accommodated in the fixing member 42e.
[0033]
Pulleys 47a, 47b, and 47c are attached to the elevating members 42b, 42c, and 42d, respectively. Belts L3, L2, and L1 are hung on these pulleys 47a, 47b, and 47c. One end of the belt L1 is fixed to the upper part of the fixing member 42e, and the other end is fixed to the lower part of the elevating member 42c. Similarly, the belt L2 is fixed to the upper part of the lifting member 42d and the lower part of the lifting member 42b, and the belt L3 is fixed to the upper part of the lifting member 42c and the lower part of the lifting member 42a.
[0034]
Then, by driving the Z-axis drive unit D1 such as a motor installed on the turntable 45, the support member 48 is moved up and down, and the lift member 42d fixed to the support member 48 is moved up and down. Here, the case where the arm 31 is raised by extending the telescopic lifting mechanism will be described. First, the drive of the Z-axis drive part D1 raises the support member 48, and at the same time, the elevating member 42d rises. When the elevating member 42d is raised, the pulley 47c attached thereto is also raised at the same time. As described above, since one end of the belt L1 is fixed to the fixing member 42e and the length of the belt L1 is constant, when the pulley 47c is raised, the elevating member 42c is lifted so as to be pulled up by the belt L1. When the elevating member 42c is raised, the pulley 47b attached thereto is raised, and the elevating member 42b is raised so as to be pulled up by the belt L2. When the elevating member 42b rises, the pulley 47a attached thereto rises, and the elevating member 42a rises so as to be pulled up by the belt L3. In this manner, the arm 31 installed on the upper side of the elevating member 42a can be raised.
[0035]
Also, in the case where the arm 31 is lowered by contracting the transport device TR1 by the expansion / contraction mechanism, conversely to the above, if the support member 48 is lowered by driving the Z-axis drive unit D1, each raising / lowering is performed. The members are sequentially lowered and the arm 31 installed on the upper side of the elevating member 42a can be lowered.
[0036]
The covers 41a to 41d are respectively attached to the elevating members 42a to 42d, and the elevating operations of these covers 41a to 41d are interlocked with the operations of the elevating members 42a to 42d.
[0037]
The θ-axis rotation drive unit D4 is a drive unit for rotating the turntable 45 around the axis θ of the base 44, and is configured by a motor or the like. Therefore, when the turntable 45 rotates about the axis θ, the arm 31 can rotate about the axis θ.
[0038]
Further, in order to move the transport device TR1 along the Y axis, a Y axis drive unit D2 (not shown) that rotates the ball screw 77 is provided.
[0039]
With the above configuration, the transport device TR1 can move in the three dimensions of the X, Y, and Z axes, and the arm 31 can be accessed by an arbitrary carrier C among the plurality of carriers C provided in the indexer ID. In addition, the arm 31 can be accessed at any accommodation position in the carrier.
[0040]
Note that the transport device TR3 provided in the interface IF is also configured to be able to operate three-dimensionally, and the arm can be accessed to the carrier C in the interface IF.
[0041]
<3. Jig used for teaching process>
In the configuration as described above, the arm 31 always accesses an accurate position with respect to the carrier C, and automatically transfers the substrate to a predetermined position formed on the carrier or takes out the substrate from the predetermined position. Teaching process is performed.
[0042]
In this embodiment, two types of jigs are used to automatically perform the teaching process. Here, these two types of jigs will be described.
[0043]
First, the first jig (hereinafter referred to as “centering jig”) has a structure as shown in FIG. 6A is a plan view of the centering jig 100 as viewed from below, and FIG. 6B is a cross-sectional view taken along line AA in the plan view of FIG. As shown in FIG. 6, the centering jig 100 is provided at a central position of the main body 110 and a thin plate-like main body 110 having a substantially same shape as a substrate that is an object to be transported by the transport device. And a detection pin 120. For example, when the substrate to be processed has a disk shape with a diameter of 300 mm, the main body 110 of the centering jig has a circular shape with a diameter that is several mm larger than the diameter of 300 mm. However, the shape is not limited to this, and any shape that can be stored in the carrier C may be used, and at least a part of the shape may conform to the outer shape of the substrate.
[0044]
As shown in FIG. 6B, a columnar detected portion 122 having a predetermined diameter is provided below the detection pin 120. Further, the joint between the detection pin 120 and the main body 110 has a predetermined diameter smaller than the diameter of the detected part 122, and a recess 121 is formed between the main body 110 and the detected part 122. Yes. The shapes and dimensions of the detected portion 122 and the recess 121 of the detection pin 120 are determined in advance.
[0045]
Next, the second jig (hereinafter referred to as “sensing jig”) has a configuration as shown in FIG. FIG. 7A is a plan view of the sensing jig 200 as viewed from above, and FIG. 7B is a side view of the sensing jig 200. As shown in FIG. 7, the sensing jig has a thin plate-like main body 210 in the same manner as the centering jig. The main body part 210 is provided with light projecting parts 231 and 241 and light receiving parts 232 and 242, and the light projecting part 231 and the light receiving part 232 form one light sensor. The part 241 and the light receiving part 242 form another single optical sensor. The optical axes of these optical sensors are provided so as to be substantially orthogonal as shown in FIG. 7 (a), and at a predetermined height position from the lower surface of the main body 210 as shown in FIG. 7 (b). In the position. Further, the position where the two optical axes of these optical sensors intersect is located on the distal end side of the arm 31 by a distance a from the position corresponding to the center of the substrate.
[0046]
The shape of the main body 210 of the sensing jig 200 may be any shape that can hold the arm 31, and at least a portion is positioned and held by the arm 31, that is, the substrate is actually in contact with the peripheral edge of the back surface of the substrate. As long as it has a shape corresponding to the arrangement of the substrate support portion of the arm 31 that supports the substrate 31, for example, a part thereof may have a shape that follows the outer shape of the substrate.
[0047]
When the arm 31 transports the sensing jig 200, the arm 31 transports the sensing jig 200 while holding the main body 210. Therefore, when the sensing jig 200 is set on the arm 31, the sensing jig 200 is always fixed to a position that has a predetermined positional relationship with respect to the arm 31.
[0048]
Note that a cable (not shown) connected to drive the light projecting units 231 and 241 and the light receiving units 232 and 242 is connected to a connector provided on the arm 31.
[0049]
<4. Control mechanism of transport device for teaching process>
Next, a control mechanism for performing the teaching process for the position to which the arm 31 accesses will be described. FIG. 8 is a block diagram showing a control mechanism for performing the teaching process. FIG. 8 is a block diagram when the sensing jig 200 described above is installed on the arm 31.
[0050]
As shown in FIG. 8, the control unit 130 includes a CPU 101 that issues a drive command to the arm 31, a ROM 102 in which a program is written in advance, a RAM 103 that stores user programs and position information, an interface 104, and a servo control unit. 105. The ROM 102, RAM 103, interface 104, and servo control unit 105 are all connected to the CPU 101.
[0051]
The interface 104 is connected to optical sensors 230 and 240 of a sensing jig via a connector 270. The optical sensor 230 is an optical sensor including a light projecting unit 231 and a light receiving unit 232, and the optical sensor 240 is an optical sensor including a light projecting unit 241 and a light receiving unit 242.
[0052]
The servo control unit 105 is connected to the Z-axis drive unit D1, the Y-axis drive unit D2, the X-axis drive unit D3, the θ-axis rotation drive mechanism, and the encoders E1, E2, E3, and E4. Here, the encoder E1 is the drive amount of the Z-axis drive unit D1, the encoder E2 is the drive amount of the Y-axis drive unit D2, the encoder E3 is the drive amount of the X-axis drive unit D3, and the encoder E4 is the θ-axis rotation drive unit. This is provided to detect the driving amount of D4. Therefore, by obtaining the outputs of the encoders E1, E2, E3, and E4 via the servo control unit 105, the CPU 101 can detect the amount of displacement that the transport device TR1 operates. Position information can be obtained. Further, the CPU 101 can control the driving of the transport device TR1 by outputting the driving amounts of the Z axis, the Y axis, the X axis, and the θ axis to the servo control unit 105.
[0053]
Note that the θ-axis rotation drive unit D4 is a mechanism that rotates the transport device TR1 to transport the substrate received from the carrier C to the unit placement unit MP side as shown in FIG. Teaching processing for the position where the carrier C is accessed is performed for the three axes of the X axis, the Y axis, and the Z axis.
[0054]
Further, the CPU 101 of the control unit 130 is connected to a main controller MC that comprehensively controls the substrate processing apparatus. The main controller MC is connected to a display unit 111 for displaying information to the operator and an operation input unit 112 for the operator to input processing commands and the like.
[0055]
<5. Teaching process 1>
A teaching process for correcting the arm 31 of the transport device TR1 so as to access an accurate storage position of the carrier C will be described. The outline of such teaching processing is as follows. The operator sets the centering jig 100 in an arbitrary storage position (shelf) of the carrier C in advance and sets the sensing jig 200 on the arm 31, and then the arm 31 is centered. By automatically accessing the carrier C in which the tool 100 is set and detecting the detected portion 122 formed on the centering jig 100 by the sensing jig 200, position information about each axis is obtained. This is processing for obtaining an accurate position of the arm 31 to be accessed based on the position information. Hereinafter, the details of the teaching process will be described.
[0056]
In the teaching process in this embodiment, as shown in FIG. 9, first, pre-processing (step S100) is performed, and then actual automatic teaching processing (step S200) is performed.
[0057]
The preprocessing (step S100) is performed in the procedure as shown in FIG. As shown in FIG. 10, first, the operator designates and inputs a command for executing the teaching process from the operation input unit 112 while confirming the display contents of the display unit 111 (step S101). At this time, the carrier C on which the teaching process is to be performed is selected, the number of storage positions at which the teaching process is to be performed is determined, and these inputs are simultaneously performed.
[0058]
In step S102, when the main controller MC receives a command for teaching processing, the main controller MC instructs the CPU 101 to execute a predetermined program for teaching processing, and at the position where the arm 31 accesses the carrier C that performs teaching processing. The base value is transmitted to the CPU 101.
[0059]
In step S103, the sensing jig 200 is set on the arm 31 of the transport device TR1. In step S104, the centering jig 100 is set at the determined storage position of the carrier C selected in step S101. At this time, the centering jig 100 is installed in contact with the back of the carrier C, and the detection pin 120 is installed in a state of protruding downward.
[0060]
Since the preprocessing involving the operator is as described above, the operator inputs the completion of the preprocessing from the operation input unit 112 in order to actually start the automatic teaching process (step S105).
[0061]
In the above pre-processing (step S100), the operator performs only the command input from the operation input unit 112 and sets the jig on each arm. Not required at all.
[0062]
When the preprocessing (step S100) is completed as described above, the automatic teaching process (step S200) in FIG. 9 is started. In the automatic teaching process (step S200), the processes shown in FIG. 11 are sequentially performed.
[0063]
First, in step S201, the CPU 101 drives the driving unit for each axis to position the arm 31 at a predetermined height position on the first stage of the carrier C to be taught. Then, the CPU 101 instructs the servo control unit 105 to extend the arm 31 to the near side by a distance a from the position indicated by the base value for the X axis. Thus, the servo control unit 105 drives the X-axis drive unit D3 and extends the arm 31 to that position. This state is as shown in FIG. That is, the position where the optical axes of the optical sensors 230 and 240 cross each other is near the position depending from the detection pin 120 provided in the centering jig 100.
[0064]
In step S202, the CPU 101 issues a command to drive the Z-axis drive unit D1, and raises the arm 31 in the + Z direction. The moving amount to be raised here is a moving amount such that the optical axis by each of the optical sensors 230 and 240 is blocked by the detection pin 120 of the centering jig 100. Since the level of the centering jig 100 stored in the carrier C is known from the above input operation, the amount of movement in the + Z direction can be obtained by calculation. Then, based on the movement amount obtained by the calculation, the servo control unit 105 drives the arm 31 in the + Z direction and the Z-axis drive unit D1.
[0065]
In step S203, the CPU 101 monitors the outputs of both the optical sensors 230 and 240. If either of the outputs is “OFF”, an alarm is issued and the operator is not allowed to continue the teaching process. It notifies that it is possible, and ends the process.
[0066]
Here, the outputs of the optical sensors 230 and 240 are “OFF” when the light emitted from the light projecting units 231 and 241 is received by the light receiving units 232 and 242. The output of 240 is “ON” when light emitted from the light projecting units 231 and 241 is not received by the light receiving units 232 and 242 (that is, when the light is blocked).
[0067]
Accordingly, if either arm is “OFF” with the arm 31 raised in the + Z direction from the state of FIG. 12, it is determined that the teaching is not possible, and the operator is notified. In this case, the operator restarts the teaching process after redoing the attachment of the arm 31 or the like. Such a restart must be performed when, for example, the attachment of the arm 31 is greatly shifted, etc. Therefore, normally, when the processing up to step S202 is performed, the outputs of the two light sensors 230 and 240 are output. Becomes “ON” and does not mean such an alarm / stop, but proceeds to step S204.
[0068]
In step S <b> 204, the CPU 101 issues a command to the servo control unit 105 to move the arm 31 in the −Z direction (that is, the downward direction) at a low speed. Then, the CPU 101 issues a command and monitors whether the output of the optical sensor 230 is “OFF”. The servo control unit 105 drives the Z-axis drive unit D1 according to a command from the CPU 101, and lowers the arm 31 at a low speed. When detecting that the optical sensor 230 is “OFF” while the arm 31 is descending, the CPU 101 instructs the servo control unit 105 to immediately stop the descending operation of the arm 31. As a result, the servo control unit 105 stops the Z-axis drive unit D1, and the arm 31 stops.
[0069]
In step S <b> 205, the arm 31 is raised, and the detection point (that is, the position of light) by the optical sensor 230 is positioned substantially at the center of the detected part 122. The position where the arm 31 is stopped in step S204 is the position of the lower end of the detected portion 122 of the detection pin 120. Further, the shape and dimensions of the detected portion 122 of the detection pin 120 are known in design. Therefore, in this step S205, the height of the portion to be detected 122 is increased by an amount corresponding to one half.
[0070]
By the processing up to step S205, the detection point by the optical sensor 230 becomes the position indicated by the position P1 shown in FIG.
[0071]
Next, position information detection processing for the Y axis in step S210 is performed, and position information about the Y axis is detected. Specifically, the procedure shown in FIG. 14 is performed. First, in step S211, the CPU 101 instructs the Y axis to move in the + Y direction at a low speed, and monitors whether the output of the optical sensor 230 is “OFF”. The servo control unit 105 drives the Y-axis drive unit D2 in accordance with a command from the CPU 101, and moves the arm 31 in the + Y direction at a low speed. By this operation, as shown in FIG. 13, the detection point of the optical sensor 230 located at the position P1 is also moved in the + Y direction.
[0072]
In step S212, when the CPU 101 recognizes that the optical sensor 230 is “OFF”, it instructs the servo control unit 105 to immediately stop the Y axis. The servo control unit 105 stops the Y-axis drive unit D2 by this command. Then, the CPU 101 acquires the current position of the Y axis obtained from the encoder E2 via the servo control unit 105, and stores it in the RAM 103 as the position information YF.
[0073]
This state will be described with reference to FIG. 13. As the arm 31 moves in the + Y direction, the detection point of the optical sensor 230 moves to the right, and the optical sensor 230 is moved to the right edge position of the detected portion 122. The CPU 101 acquires the position information YF.
[0074]
In step S213, the CPU 101 moves the Y axis in the −Y direction. The movement in the −Y direction in step S213 releases the position of the detection point of the optical sensor 230 from the edge position of the detected part 122, and the output of the optical sensor 230 is stably turned “ON”. What is necessary is just to move to a position.
[0075]
In step S214, the CPU 101 instructs the Y-axis to move in the −Y direction at a low speed, and monitors whether the output of the optical sensor 230 is “OFF”. The servo control unit 105 drives the Y-axis drive unit D2 in accordance with a command from the CPU 101, and moves the arm 31 in the -Y direction at a low speed. By this operation, in FIG. 13, the detection point of the optical sensor 230 also moves in the −Y direction.
[0076]
In step S215, when the CPU 101 recognizes that the optical sensor 230 is “OFF”, it instructs the servo control unit 105 to immediately stop the Y axis. The servo control unit 105 stops the Y-axis drive unit D2 by this command. Then, the CPU 101 acquires the current position of the Y axis obtained from the encoder E2 via the servo control unit 105, and stores it in the RAM 103 as position information YR.
[0077]
This state will be described with reference to FIG. 13. As the arm 31 moves in the −Y direction, the detection point of the optical sensor 230 moves to the left, and the optical sensor 230 is at the left edge position of the detected portion 122. “OFF”, and the CPU 101 acquires the position information YR.
[0078]
In step S216, the CPU 101 moves the position of the Y axis to the position of “YR + (YF−YR) / 2”. That is, this position is the center of the detected part 122. Therefore, when step S216 is performed, the light from the light projecting unit 231 is applied to the center of the detected unit 122. The Y-axis position information detection process in step S210 of FIG.
[0079]
Then, the X-axis position information detection process (step S220) shown in FIG. 11 is performed to detect position information about the X-axis. Specifically, the procedure shown in FIG. 15 is performed. First, in step S221, the CPU 101 instructs the X axis to move in the + X direction at a low speed, and monitors whether the output of the optical sensor 240 is “OFF”. The servo control unit 105 drives the X-axis drive unit D3 according to a command from the CPU 101, and moves the arm 31 in the + X direction at a low speed. By this operation, as shown in FIG. 13, the detection point of the optical sensor 240 located at the position P1 is also moved in the + X direction.
[0080]
In step S222, when the CPU 101 recognizes that the optical sensor 240 is “OFF”, it instructs the servo control unit 105 to immediately stop the X axis. The servo control unit 105 stops the X-axis drive unit D3 by this command. The CPU 101 acquires the current position of the X axis obtained from the encoder E3 via the servo control unit 105, and stores it in the RAM 103 as the position information XF.
[0081]
This state will be described with reference to FIG. 13. The detection point of the optical sensor 240 moves to the left as the arm 31 moves in the + X direction, and the optical sensor 240 is moved to the left edge position of the detected portion 122. The CPU 101 acquires the position information XF.
[0082]
In step S223, the CPU 101 moves the X axis in the −X direction. The movement in the −X direction in step S223 releases the position of the detection point of the optical sensor 240 from the edge position of the detected part 122, and the output of the optical sensor 240 is stably turned “ON”. What is necessary is just to move to a position.
[0083]
In step S224, the CPU 101 instructs the X axis to move in the −X direction at a low speed and monitors the output of the optical sensor 240 to be “OFF”. The servo control unit 105 drives the X-axis drive unit D3 according to a command from the CPU 101, and moves the arm 31 in the -X direction at a low speed. By this operation, in FIG. 13, the detection point of the optical sensor 240 also moves in the −X direction.
[0084]
In step S225, when the CPU 101 recognizes that the optical sensor 240 is “OFF”, it instructs the servo control unit 105 to immediately stop the X axis. The servo control unit 105 stops the X-axis drive unit D3 by this command. Then, the CPU 101 acquires the current position of the X axis obtained from the encoder E3 via the servo control unit 105, and stores it in the RAM 103 as the position information XR.
[0085]
This state will be described with reference to FIG. 13. As the arm 31 moves in the −X direction, the detection point of the optical sensor 240 moves to the right, and the optical sensor 240 is at the right edge position of the detected portion 122. “OFF”, and the CPU 101 acquires the position information XR.
[0086]
In step S226, the CPU 101 moves the position of the X axis to the position of “XR + (XF−XR) / 2−k”. Here, when the radius r of the detection pin 120 in the recess 121 and the radius R in the detected portion 122 are used, the constant k is a number satisfying “r <k <R”. Accordingly, in step S226, the detection point of the optical sensor 240 is positioned at the position P2 of the detected portion 122 shown in FIG. Thus, the X-axis position information detection process in step S220 of FIG. 11 is completed.
[0087]
Next, Z-axis position information detection processing (step S230) shown in FIG. 11 is performed to detect position information about the Z-axis. Specifically, the procedure shown in FIG. 16 is performed. First, in step S231, the CPU 101 instructs the Z-axis to move in the + Z direction (that is, the direction in which the arm 31 is raised) at a low speed, and monitors whether the output of the optical sensor 240 is “OFF”. . The servo control unit 105 drives the Z-axis drive unit D1 according to a command from the CPU 101, and moves the arm 31 in the + Z direction at a low speed. By this operation, as shown in FIG. 13, the detection point of the optical sensor 240 located at the position P2 is also moved in the + Z direction.
[0088]
In step S232, when the CPU 101 recognizes that the optical sensor 240 is “OFF”, it instructs the servo control unit 105 to immediately stop the Z-axis. The servo control unit 105 stops the Z-axis drive unit D1 by this command. Then, the CPU 101 acquires the current Z-axis position obtained from the encoder E1 via the servo control unit 105, and stores it in the RAM 103 as position information ZF.
[0089]
This state will be described with reference to FIG. 13. As the arm 31 moves in the + Z direction, the detection point of the optical sensor 240 moves upward, and the optical sensor 240 is moved at the upper edge position of the detected portion 122. The CPU 101 acquires the position information ZF.
[0090]
In step S233, the CPU 101 moves the Z axis in the −Z direction (the direction in which the arm 31 is lowered). The movement in the −Z direction in step S233 releases the position of the detection point of the optical sensor 240 from the edge position of the detected portion 122, and the output of the optical sensor 240 is stably “ON”. What is necessary is just to move to a position.
[0091]
In step S234, the CPU 101 instructs the Z-axis to move in the −Z direction at a low speed, and monitors whether the output of the optical sensor 240 is “OFF”. The servo control unit 105 drives the Z-axis drive unit D1 according to a command from the CPU 101, and moves the arm 31 in the -Z direction at a low speed. By this operation, the detection point of the optical sensor 240 also moves in the −Z direction in FIG. 13.
[0092]
In step S235, when the CPU 101 recognizes that the optical sensor 240 is “OFF”, it instructs the servo control unit 105 to immediately stop the Z-axis. The servo control unit 105 stops the Z-axis drive unit D1 by this command. Then, the CPU 101 acquires the current Z-axis position obtained from the encoder E1 via the servo control unit 105, and stores it in the RAM 103 as position information ZR.
[0093]
This state will be described with reference to FIG. 13. As the arm 31 moves in the −Z direction, the detection point of the optical sensor 240 moves downward, and the optical sensor 240 moves to the lower edge position of the detected portion 122. "OFF", and the CPU 101 acquires the position information ZR.
[0094]
In step S236, the CPU 101 instructs the position of the Z axis to be lowered to the position of the first stage of the carrier C. As a result, the servo control unit 105 lowers the arm 31 to a state as shown in FIG. Thereafter, the CPU 101 instructs to return the X axis to the origin, and the arm 31 is retracted from the inside of the carrier C by driving the X axis driving unit D3 of the servo control unit 105. This completes the Z-axis position information detection process in step S230 of FIG.
[0095]
Thus, the position information about the three axes of the Y axis, the X axis, and the Z axis is detected. Next, in step S240 shown in FIG. 11, the position information YF, YR, XF, XR, Deviation correction calculation processing is performed based on ZF and ZR. In this deviation correction calculation process, the difference (deviation amount) between the base value obtained from the main controller MC and the accurate storage position obtained by the optical sensor is obtained based on the respective position information. Specifically, assuming that the base values for the X, Y, and Z axes previously held by the main controller MC are Xa, Ya, and Za, and the shift amounts of the arm 31 are ΔX, ΔY, and ΔZ, respectively. , ΔX, ΔY, ΔZ are respectively
[0096]
[Expression 1]
Figure 0003869098
[0097]
[Expression 2]
Figure 0003869098
[0098]
[Equation 3]
Figure 0003869098
[0099]
Represented as: Here, the constant h in Equation 3 is a value corresponding to the position where the centering jig 100 is stored, and is a value obtained from the storage position and the dimension of the detection pin 120 of the centering jig 100.
[0100]
In step S240, the CPU 101 reads the position information YF, YR, XF, XR, ZF, and ZR stored in the RAM 103 and calculates them based on Equations 1 to 3, thereby calculating the arm in each axial direction. 31 deviation amounts ΔX, ΔY, ΔZ can be obtained.
[0101]
Equation 1 is an equation for obtaining a difference between a preset base value Xa for the X axis and the position of the arm serving as the center of the detected part 122 detected in the X axis position information detection process (step S220). In addition, since the detected position on the X-axis is detected at a position shifted from the original center position of the substrate by the distance a, the distance a is also taken into consideration.
[0102]
Equation 2 calculates the difference between the base value Ya set in advance for the Y axis and the position of the arm serving as the center of the detected portion 122 detected in the Y axis position information detection process (step S210). It is a formula.
[0103]
Further, Equation 3 is an expression for obtaining a difference between a preset base value Za for the Z axis and the height position of the lower surface of the main body 110 of the centering jig 100 at the position where the centering jig 100 is stored. It is.
[0104]
Based on these formulas 1 to 3, the arm 31 accesses the carrier C on the basis of the deviation amount obtained for each axis, and obtains an accurate storage position as a reference position when the substrate is stored or taken out. Can do.
[0105]
Then, after performing the calculation for each axis in step S240, in step S250, based on the value obtained in step S240, a storage position that is a reference position for accurately storing or taking out the substrate of the arm 31 is determined. Set. The CPU 101 outputs the deviation amounts ΔX, ΔY, ΔZ to the main controller MC, and the main controller MC sets an accurate storage position for the carrier C based on these values. For example, the main controller MC registers the deviation amounts ΔX, ΔY, ΔZ as the offset values of the base values Xa, Ya, Za for the X axis, the Y axis, and the Z axis.
[0106]
In the teaching process, position information is acquired for one storage position among a plurality of storage positions in an arbitrary carrier C. However, since the plurality of storage positions are formed at predetermined equal intervals, If the position information is acquired for the storage position, the correct storage position can be obtained by calculation for the other storage positions. Further, in the above teaching process, the teaching process is performed for one of the plurality of carriers C. However, since the plurality of carriers C are arranged at equal intervals along the Y axis, If the position information is acquired for the carrier C, the correct storage position can be obtained by calculation for the other carriers C.
[0107]
As described above, for the X axis, Y axis, and Z axis, the teaching process for the storage position that is the reference position when the arm 31 of the transport device TR1 accesses the carrier C to store or take out the substrate is completed. To do. In the flowchart of FIG. 11, the CPU 101 functions as a control unit that acquires position information when performing the processes of Steps S201 to S230, and the arm 31 is used for the carrier C when performing the processes of Steps S240 and S250. Functions as a setting means for setting an accurate storage position as a reference position when the substrate is stored or taken out.
[0108]
By performing the processing as described above, it is possible to set an accurate storage position where the arm 31 of the transfer device TR1 should access the carrier accurately and efficiently in a short time, eliminating deviations due to assembly errors and the like. can do.
[0109]
In addition, even when the carrier is a storage container that does not expose a substrate called a pod (POD) to the outside air, since the teaching process can be automatically performed, the operator can visually check the position of the arm and the storage position. It is not necessary to confirm the positional relationship, and the burden on the operator can be reduced.
[0110]
<6. Teaching process 2>
By the way, in the teaching process as described above, when the arm 31 is driven for each axis, it is necessary to drive at a low speed in order to obtain each position information accurately. Further, since the arm 31 is moved only in one direction in order to obtain each position information, there is a possibility that the edge of the detected part 122 to be detected is shifted due to a slight shift of the optical axis. Therefore, in order to perform the teaching process as described above more efficiently and accurately, the following method may be performed.
[0111]
The overall processing procedure of the teaching process is the same as the flowchart of FIG. Then, when performing the processing of steps S210, S220, and S230 shown in FIG. 11, the position information is captured without stopping the arm 31, and the detected portion 122 is detected when the detected portion 122 is detected for each axis. The arm 31 is reciprocated in a plus direction and a minus direction along a predetermined trajectory crossing the pair of edges, and position information on four points is captured. Then, by averaging the position information of these four points, the speed of moving the arm can be increased by guiding the center of the detected part 122, and the accuracy of the position information to be detected is also increased. be able to.
[0112]
In this case, the process of detecting the Y-axis position information in step S210 shown in FIG. 11 is performed as shown in FIG. Further, in the procedure shown in FIG. 17, the locus of movement of the detection point of the optical sensor 230 is shown in FIG. 18.
[0113]
First, in step S311, the Y axis is moved in the −Y direction, and the detection point of the optical sensor 230 is moved to a position where the optical sensor 230 is stably “OFF”. By this step S311, the detection point of the optical sensor 230 is moved to the position P3 shown in FIG.
[0114]
In step S312, the arm 31 is started to move in the + Y direction, and the position where the optical sensor 230 is “ON” is stored in the RAM 103 as the position information YF1. That is, first, when the detection point at the position P3 in FIG. 18 moves toward the detected portion 122 with the movement of the arm 31, and detects the left edge of the detected portion 122, the edge position is set as position information YF1. get. The arm 31 continues to move in the + Y direction even when the position information YF1 is captured.
[0115]
In step S313, the position where the optical sensor 230 is “OFF” is stored in the RAM 103 as the position information YF2. The position of YF2 at this time is the right edge position of the detected portion 122 shown in FIG. As a result, the edge detection in the forward direction is performed on the pair of edges of the detected part 122. Note that the arm 31 continues to move in the + Y direction even when the position information YF2 is captured.
[0116]
In step S314, the optical sensor 230 is moved about 5 mm from the “OFF” position. If the turning point when the arm 31 is reciprocated is set to the position where the optical sensor 230 is “OFF”, the ON / OFF switching point of the optical sensor 230 becomes the turning point, which is not preferable. Therefore, in step S314, the optical sensor 230 is moved about 5 mm from the “OFF” position, and is not limited to 5 mm.
[0117]
In step S315, the arm 31 is started to move in the −Y direction, and the position where the optical sensor 230 is “ON” is stored in the RAM 103 as the position information YR1. The position of YR1 at this time is the right edge position of the detected portion 122 shown in FIG.
[0118]
The arm 31 continues to move in the −Y direction, and in step S316, the position where the optical sensor 230 is “OFF” is stored in the RAM 103 as the position information YR2. The position of YR2 at this time is the edge position on the left side of the detected part 122 shown in FIG. As a result, edge detection in the opposite direction is performed on the pair of edges of the detected part 122.
[0119]
In step S317, the position of the arm 31 with respect to the Y axis is moved to the position “(YF1 + YF2 + YR1 + YR2) / 4”. This position is the center position of the detected portion 122 as can be seen from FIG.
[0120]
In this manner, the process of detecting the Y-axis position information in step S210 shown in FIG. 11 is completed.
[0121]
Next, the process of detecting the position information of the X axis in step S220 shown in FIG. 11 is a procedure as shown in FIG. Further, in the procedure shown in FIG. 19, the locus of movement of the detection point of the optical sensor 240 refers to FIG.
[0122]
First, in step S321, the X axis is moved in the −X direction, and the detection point of the optical sensor 240 is moved to a position where the optical sensor 240 is stably “OFF”. By this step S321, the detection point of the optical sensor 240 is moved to the position P3 shown in FIG.
[0123]
In step S322, the arm 31 is started to move in the + X direction, and the position where the optical sensor 240 is “ON” is stored in the RAM 103 as the position information XF1. That is, first, when the detection point at the position P3 in FIG. 18 moves toward the detected portion 122 as the arm 31 moves, and the left edge of the detected portion 122 is detected, the edge position is set as position information XF1. get. The arm 31 continues to move in the + X direction even when the position information XF1 is captured.
[0124]
In step S323, the position where the optical sensor 240 is “OFF” is stored in the RAM 103 as the position information XF2. The position of XF2 at this time is the right edge position of the detected part 122 shown in FIG. As a result, the edge detection in the forward direction is performed on the pair of edges of the detected part 122. Note that the arm 31 continues to move in the + X direction even when the position information XF2 is captured.
[0125]
In step S324, the optical sensor 240 is moved about 5 mm from the “OFF” position. The meaning of the process in step S324 is the same as that in step S314 for the Y axis.
[0126]
In step S325, the arm 31 is started to move in the −X direction, and the position where the optical sensor 240 is “ON” is stored in the RAM 103 as the position information XR1. The position of XR1 at this time is the right edge position of the detected part 122 shown in FIG.
[0127]
The arm 31 continues to move in the −X direction, and in step S326, the position where the optical sensor 240 is “OFF” is stored in the RAM 103 as the position information XR2. At this time, the position of XR2 is the left edge position of the detected portion 122 shown in FIG. As a result, edge detection in the opposite direction is performed on the pair of edges of the detected part 122.
[0128]
In step S327, the position of the arm 31 about the X axis is moved to the position “(XF1 + XF2 + XR1 + XR2) / 4 + k”. Here, as described above, the constant k is a number satisfying “r <k <R” when the radius r of the detection pin 120 in the recess 121 and the radius R in the detected part 122 are used. .
[0129]
In this way, the processing for detecting the position information of the X axis in step S220 shown in FIG. 11 is completed.
[0130]
Next, the process of detecting the Z-axis position information in step S230 shown in FIG. 11 is performed as shown in FIG. Further, in the procedure shown in FIG. 20, the locus of movement of the detection point of the optical sensor 240 is shown in FIG.
[0131]
First, in step S331, the Z axis is moved in the −Z direction (that is, the direction in which the arm 31 is lowered), and the detection point of the optical sensor 240 is moved to a position where the optical sensor 240 is stably “OFF”. By this step S331, the detection point of the optical sensor 240 is moved to the position P4 shown in FIG.
[0132]
In step S332, the arm 31 is started to move in the + Z direction (that is, the direction in which the arm 31 is raised), and the position where the optical sensor 240 is “ON” is stored in the RAM 103 as the position information ZF1. That is, when the detection point at the position P4 in FIG. 18 first rises as the arm 31 moves and the lower edge of the detected part 122 is detected, the edge position is acquired as the position information ZF1. The arm 31 continues to move in the + Z direction even when the position information ZF1 is captured.
[0133]
In step S333, the position where the optical sensor 240 is “OFF” is stored in the RAM 103 as the position information ZF2. The position of ZF2 at this time is the upper edge position of the detected portion 122 shown in FIG. As a result, the edge detection in the forward direction is performed on the pair of edges in the vertical direction of the detected part 122. Note that the arm 31 continues to move in the + X direction even when the position information ZF2 is captured.
[0134]
In step S334, the optical sensor 240 is moved about several mm from the position where it is “OFF”. The meaning of the processing in step S324 is also processing for ensuring that the output of the optical sensor 240 is stably “OFF”.
[0135]
In step S335, the arm 31 starts to move in the −Z direction, and the position where the optical sensor 240 is “ON” is stored in the RAM 103 as the position information ZR1. The position of ZR1 at this time is the upper edge position of the detected part 122 shown in FIG.
[0136]
The arm 31 continues to move in the −Z direction, and in step S336, the position where the optical sensor 240 is “OFF” is stored in the RAM 103 as the position information ZR2. The position of ZR2 at this time is the lower edge position of the detected portion 122 shown in FIG. As a result, edge detection in the opposite direction is performed on the pair of edges in the vertical direction of the detected part 122.
[0137]
In step S337, the position of the Z axis is lowered to the position of the first stage of the carrier C, and the X axis is returned to the origin. Thereby, the arm 31 is retracted from the inside of the carrier C.
[0138]
In this way, the process of detecting the Z-axis position information in step S230 shown in FIG. 11 is completed.
[0139]
As a result of the above processing, position information of four points is acquired for each of the X axis, the Y axis, and the Z axis.
[0140]
Then, deviation correction calculation processing is performed in the next step S240 shown in FIG. Specifically, ΔX, ΔY, and ΔZ are respectively
[0141]
[Expression 4]
Figure 0003869098
[0142]
[Equation 5]
Figure 0003869098
[0143]
[Formula 6]
Figure 0003869098
[0144]
Represented as: Therefore, in step S240, the CPU 101 reads the 12 pieces of position information XF1, XF2, XR1, XR2, YF1, YF2, YR1, YR2, ZF1, ZF2, ZR1, and ZR2 stored in the RAM 103, and converts them into Equations 4 to 6. By calculating based on this, it is possible to obtain the deviation amounts ΔX, ΔY, ΔZ of the arm 31 in the respective axial directions.
[0145]
In step S240, after the amount of deviation for each axis is derived, in step S250, an accurate storage position of the arm 31 to be accessed is set based on the value obtained in step S240. The CPU 101 outputs deviation amounts ΔX, ΔY, ΔZ to the main controller MC, and the main controller MC sets an accurate storage position based on these values.
[0146]
As described above, for the X axis, the Y axis, and the Z axis, the teaching process for the storage position when the arm 31 of the transport device TR1 accesses the carrier C is completed.
[0147]
Here, when the position information is taken in while operating the arm 31 at a high speed, the position may be slightly shifted from the original ON / OFF position. For example, considering the Y-axis, as shown in FIG. 21, when the output of the optical sensor 230 when the arm 31 is moved at a high speed in the + Y direction is SGN1, the ON / OFF position of the optical sensor 230 is the original ON / OFF position. There may be a delay with respect to the position to be turned off (that is, the edge position of the detected portion 122). Similarly, if the output of the optical sensor 230 when the arm 31 is moved in the −Y direction at high speed is SGN2, the position where the optical sensor 230 is turned ON / OFF may be delayed with respect to the original ON / OFF position. . Although these portions depend on the response characteristics of the optical sensor 230, if the movement speeds of the arms 31 in the + Y direction and the -Y direction are equal, the delays in the + Y direction and the -Y direction become equal.
[0148]
Therefore, by performing the four-point measurement as described above and deriving the average of the four points, it is possible to eliminate the delay in the output of such an optical sensor. As a result, when performing such four-point measurement, it is not necessary to use an expensive optical sensor with excellent response characteristics, and measurement can be performed with high accuracy using a relatively inexpensive optical sensor.
[0149]
Thus, by performing four-point measurement for each axis, the arm 31 can be moved at a relatively high speed, the teaching process can be speeded up, and an average of the four points is taken to derive the deviation. Therefore, the accuracy in teaching can be improved.
[0150]
Note that the teaching process as shown here is a process for capturing position information while moving the arm 31, and thus is a so-called multitasking process in which a plurality of tasks can be executed simultaneously. For example, a task for sequentially executing each step of the program as described above, a task for calculating command values for the driving units D1 to D3 of each axis in real time, a task for monitoring the output from the optical sensor in real time, etc. A plurality of tasks are processed in parallel by the CPU 101, so that each position information can be captured while the arm 31 is moved.
[0151]
By performing the processing as described above, it is possible to reduce the burden on the operator and to set an accurate storage position where the arm 31 of the transport device TR1 should access the carrier accurately and efficiently in a short time. Deviations due to assembly errors or the like can be eliminated. Furthermore, compared with the “teaching process 1”, the arm 31 can be moved at a high speed and the teaching accuracy can be increased.
[0152]
<7. Modification>
The teaching process in the above description is not only applied to the transport device TR1 provided in the indexer ID (see FIG. 1), but can be applied to a transport device that stores or removes a substrate from a carrier such as a pod. Needless to say. For example, the present invention can also be applied to the transport device TR3 provided in the interface IF.
[0153]
In addition, it goes without saying that the same result can be obtained even if the moving direction of each axis in the above description is switched between the plus direction and the minus direction.
[0154]
Furthermore, in the above description, the teaching of the transport apparatus TR1 in the substrate processing apparatus has been described. However, such teaching processing can also be applied to a transport apparatus other than the transport apparatus that transports the substrate. That is, for a general transporting device that transports and stores a transported object in a predetermined storage container with the arm holding the transported object, a teaching process is performed so that the arm accurately accesses a predetermined storage position. It can also be applied. Therefore, the conveyed object is not limited to the substrate.
[0155]
【The invention's effect】
As described above, according to the first aspect of the present invention, the first jig is installed at a predetermined position of the storage container and the first jig is held in the arm. The second jig is brought close to the jig until a predetermined relative positional relationship is reached, and the arm is moved in a plurality of different directions in the proximity state, whereby the first jig is obtained in each of the plurality of directions. The jig is detected and acquired as position information. Based on the position information, the arm sets the reference position for storing or taking out the object to be transported from the storage container, thereby reducing the burden on the operator. At the same time, it is possible to eliminate the positional deviation of the position accessed by the transport device accurately and in a short time.
[0156]
According to the second aspect of the present invention, the arm is moved so that the detection point of the sensor moves along the forward direction of the predetermined trajectory that crosses each of the pair of edges of the detected portion, Each of the positions detected by the sensors is acquired as a pair of forward edge positions, and the arm is moved so that the detection point of the sensor moves along a direction opposite to the forward direction. The position of each edge detected by the sensor is acquired as a pair of reverse edge positions, and the arm is moved at high speed to obtain position information based on the pair of forward edge positions and the pair of reverse edge positions. In addition, the accuracy can be increased, and the positional deviation of the position accessed by the transport device can be eliminated with high efficiency and high accuracy.
[0157]
According to the third aspect of the present invention, since the detection output of the detected part by the sensor is taken in parallel with the movement while moving the arm, the position information can be efficiently acquired.
[0158]
According to the fourth aspect of the present invention, in the substrate carry-in / out device, the positional deviation of the arm of the transfer device that accesses the storage container mounted on the mounting table is accurately and efficiently eliminated in a short time. Can do.
[0159]
According to the fifth aspect of the present invention, in the substrate processing apparatus, it is possible to eliminate the positional deviation of the arm of the transfer device that accesses the storage container in which the substrate is stored accurately and efficiently in a short time.
[Brief description of the drawings]
FIG. 1 is a schematic view showing a substrate processing apparatus in an embodiment of the present invention.
FIG. 2 is an external perspective view of a transfer device provided in an indexer of a substrate processing apparatus according to an embodiment of the present invention.
FIG. 3 is a side cross-sectional view showing the internal structure of the arm of the transfer apparatus according to the embodiment of the present invention.
FIG. 4 is a diagram conceptually illustrating an operation of an arm of a transfer device according to an embodiment of the present invention.
FIG. 5 is a side cross-sectional view for explaining an expansion / contraction raising / lowering mechanism of the transport apparatus according to the embodiment of the present invention.
FIG. 6 is a view showing a centering jig (first jig) according to the embodiment of the present invention.
FIG. 7 is a diagram showing a sensing jig (second jig) in the embodiment of the present invention.
FIG. 8 is a block diagram showing a control mechanism for performing teaching processing in the embodiment of the present invention.
FIG. 9 is a flowchart showing overall processing of teaching processing in the embodiment of the present invention;
FIG. 10 is a flowchart showing pre-processing of teaching processing in the embodiment of the present invention.
FIG. 11 is a flowchart showing automatic teaching processing of teaching processing according to the embodiment of the present invention.
FIG. 12 is a diagram showing a state where an arm accesses a carrier in the embodiment of the present invention.
FIG. 13 is a diagram showing a moving direction of a detection point by an optical sensor during teaching processing in the embodiment of the present invention.
FIG. 14 is a flowchart showing a Y-axis position information detection process of the teaching process according to the embodiment of the present invention.
FIG. 15 is a flowchart showing X-axis position information detection processing of teaching processing according to the embodiment of the present invention.
FIG. 16 is a flowchart showing Z-axis position information detection processing of teaching processing according to the embodiment of the present invention.
FIG. 17 is a flowchart showing a Y-axis position information detection process different from FIG. 14 of the teaching process in the embodiment of the present invention.
FIG. 18 is a diagram showing a moving direction (trajectory) of a detection point by an optical sensor during teaching processing in the embodiment of the present invention.
FIG. 19 is a flowchart showing X-axis position information detection processing different from FIG. 15 of teaching processing according to the embodiment of the present invention;
FIG. 20 is a flowchart showing Z-axis position information detection processing different from FIG. 16 of teaching processing according to the embodiment of the present invention.
FIG. 21 is an explanatory diagram showing an output of the optical sensor when the arm is moved at high speed in the embodiment of the present invention.
[Explanation of symbols]
31 arms
101 CPU
130 Control unit
100 Centering jig (first jig)
200 Sensing jig (second jig)
122 Detected part
110, 210 body
230,240 Optical sensor
231 241
232, 242 Photodetector
TR1 transport device
D1 Z-axis drive unit
D2 Y-axis rotation drive unit
D3 X-axis drive unit
D4 θ-axis rotation drive unit
E1, E2, E3, E4 encoder
W substrate

Claims (5)

収納容器に対してアームによって被搬送物の収納又は取り出しを行う搬送装置であって、
(a) 前記収納容器の所定位置に第1の治具が設置され、かつ、前記アームに第2の治具を保持させた状態で、前記第1の治具に対して前記第2の治具を所定の相対的位置関係になるまで近接させ、当該近接状態において前記アームをそれぞれ異なる複数の方向に移動させることによって、前記複数の方向のそれぞれについて前記第1の治具を検出して位置情報として取得する制御手段と、
(b) 前記位置情報に基づいて、前記アームが前記収納容器に対して被搬送物の収納又は取り出しを行う際の基準位置を設定する設定手段と、
を備え、
前記第1と第2の治具のうちの一方には、少なくともその一部に所定の形状を有する被検出部が形成されているとともに、
前記第1と第2の治具のうちの他方には、前記被検出部に感応するセンサが設けられており、
前記制御手段は、
(a1) 前記被検出部を横切って通過する少なくとも3つの軌跡のそれぞれに沿って前記センサの検出ポイントが移動するように前記アームを移動させる移動制御手段と、
(a2) 前記センサの検出ポイントが前記少なくとも3つの軌跡のそれぞれに沿って移動する過程にて前記センサが検出した前記被検出部の一対のエッジを一対のエッジ検出位置として取得することにより、前記被検出部について少なくとも3つの一対のエッジ検出位置を取得するエッジ位置検出手段と、
(a3) 前記少なくとも3つの一対のエッジ検出位置に基づいて前記位置情報を得る位置情報取得手段と、
を備えることを特徴とする搬送装置。
A transport device for storing or taking out a transported object by an arm with respect to a storage container,
(a) The first jig is installed at a predetermined position of the storage container, and the second jig is fixed to the first jig with the second jig held by the arm. The tool is moved close to a predetermined relative positional relationship, and the arm is moved in a plurality of different directions in the proximity state, whereby the first jig is detected and positioned in each of the plurality of directions. Control means to obtain as information;
(b) based on the position information, setting means for setting a reference position when the arm stores or removes the object to be conveyed with respect to the storage container;
With
In one of the first and second jigs, a detected portion having a predetermined shape is formed on at least a part thereof, and
The other of the first and second jigs is provided with a sensor sensitive to the detected part,
The control means includes
(a1) a movement control means for moving the arm so that the detection point of the sensor moves along each of at least three trajectories passing across the detected part;
(a2) By acquiring, as a pair of edge detection positions, a pair of edges of the detected portion detected by the sensor in a process in which a detection point of the sensor moves along each of the at least three trajectories, Edge position detection means for acquiring at least three pairs of edge detection positions for the detected portion;
(a3) position information acquisition means for obtaining the position information based on the at least three pairs of edge detection positions;
A conveying device comprising:
請求項1に記載の搬送装置において
前記エッジ位置検出手段は、
(a2-1) 前記センサの検出ポイントが前記少なくとも3つの軌跡のそれぞれの順方向に沿って移動する過程にて前記センサが検出した前記被検出部の一対のエッジを一対の順方向エッジ検出位置として取得することにより、前記被検出部について少なくとも3つの一対の順方向エッジ検出位置を取得する順方向検出手段と、
(a2-2) 前記センサの検出ポイントが前記少なくとも3つの軌跡のそれぞれの逆方向に沿って移動する過程にて前記センサが検出した前記被検出部の一対のエッジを一対の逆方向エッジ検出位置として取得することにより、前記被検出部について少なくとも3つの一対の逆方向エッジ検出位置を取得する逆方向検出手段と、
を備え、
前記位置情報取得手段は、前記少なくとも3つの一対の順方向エッジ検出位置と前記少なくとも3つの一対の逆方向エッジ検出位置とに基づいて前記位置情報を得ることを特徴とする搬送装置。
In the conveyance apparatus of Claim 1 ,
The edge position detecting means includes
(a2-1) A pair of forward edge detection positions corresponding to a pair of edges of the detected portion detected by the sensor in a process in which a detection point of the sensor moves along the forward direction of each of the at least three trajectories Forward direction detecting means for acquiring at least three pairs of forward edge detection positions for the detected part,
(a2-2) A pair of reverse edge detection positions corresponding to a pair of edges of the detected portion detected by the sensor in a process in which detection points of the sensor move along the reverse directions of the at least three trajectories. A reverse direction detecting means for acquiring at least three pairs of reverse edge detection positions for the detected part by acquiring as
With
The transport apparatus according to claim 1, wherein the position information acquisition unit obtains the position information based on the at least three pairs of forward edge detection positions and the at least three pairs of backward edge detection positions .
請求項2に記載の装置において、
前記順方向検出手段および前記逆方向検出手段のそれぞれは、前記アームを移動させつつ当該移動と並行して前記センサによる前記被検出部の検出出力を取り込むことを特徴とする搬送装置。
The apparatus of claim 2.
Each of the forward direction detecting means and the backward direction detecting means takes in the detection output of the detected part by the sensor in parallel with the movement while moving the arm.
基板を複数枚収容する収納容器を載置する載置台が設けられるとともに、
前記載置台に載置される前記収納容器に対して基板を搬入搬出する基板搬送手段として、請求項1ないし請求項3のいずれかに記載の搬送装置を備えることを特徴とする基板搬入搬出装置。
A mounting table for mounting a storage container for storing a plurality of substrates is provided,
4. A substrate carry-in / out device comprising the transport device according to claim 1 as substrate transport means for transporting a substrate into / from the storage container placed on the mounting table. .
基板に対して所定の処理を行う処理部を備え、
前記収納容器から前記基板を取り出し、前記処理部に搬送するとともに、前記処理部において前記所定の処理が終了した基板を前記処理部から受け取り、前記収納容器に収納する基板搬送手段として、請求項1ないし請求項3のいずれかに記載の搬送装置を備えることを特徴とする基板処理装置。
A processing unit for performing predetermined processing on the substrate;
2. The substrate transporting means for taking out the substrate from the storage container and transporting the substrate to the processing unit and receiving the substrate for which the predetermined processing has been completed in the processing unit from the processing unit and storing the substrate in the storage container. A substrate processing apparatus comprising the transfer device according to claim 3.
JP32877797A 1997-11-28 1997-11-28 Transport device, substrate carry-in / out device, and substrate processing apparatus Expired - Lifetime JP3869098B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP32877797A JP3869098B2 (en) 1997-11-28 1997-11-28 Transport device, substrate carry-in / out device, and substrate processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP32877797A JP3869098B2 (en) 1997-11-28 1997-11-28 Transport device, substrate carry-in / out device, and substrate processing apparatus

Publications (2)

Publication Number Publication Date
JPH11163084A JPH11163084A (en) 1999-06-18
JP3869098B2 true JP3869098B2 (en) 2007-01-17

Family

ID=18214021

Family Applications (1)

Application Number Title Priority Date Filing Date
JP32877797A Expired - Lifetime JP3869098B2 (en) 1997-11-28 1997-11-28 Transport device, substrate carry-in / out device, and substrate processing apparatus

Country Status (1)

Country Link
JP (1) JP3869098B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10535543B2 (en) 2016-08-01 2020-01-14 Kokusai Electric Corporation Teaching jig, substrate processing apparatus, and teaching method

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004003994A1 (en) * 2002-07-01 2004-01-08 Hirata Corporation Substrate sensor
JP4064361B2 (en) 2004-03-15 2008-03-19 川崎重工業株式会社 Method for acquiring position information of transfer position of transfer device
JP4047826B2 (en) 2004-03-25 2008-02-13 東京エレクトロン株式会社 Vertical heat treatment apparatus and automatic teaching method for transfer mechanism
JP4740799B2 (en) 2006-06-07 2011-08-03 Okiセミコンダクタ株式会社 Thin plate container inspection apparatus and inspection method thereof
JP6303556B2 (en) * 2014-02-05 2018-04-04 東京エレクトロン株式会社 Substrate transport mechanism position detection method, storage medium, and substrate transport mechanism position detection device
JP6302275B2 (en) * 2014-02-12 2018-03-28 株式会社ダイヘン Transfer robot and teaching system
JP6422695B2 (en) * 2014-07-18 2018-11-14 株式会社Screenホールディングス Substrate processing apparatus and substrate processing method
US11370114B2 (en) * 2019-12-09 2022-06-28 Applied Materials, Inc. Autoteach enclosure system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10535543B2 (en) 2016-08-01 2020-01-14 Kokusai Electric Corporation Teaching jig, substrate processing apparatus, and teaching method

Also Published As

Publication number Publication date
JPH11163084A (en) 1999-06-18

Similar Documents

Publication Publication Date Title
JP3306398B2 (en) Substrate transfer device and transfer teaching system
KR101015778B1 (en) Substrate processing apparatus and method for adjusting a substrate transfer position
JP4376116B2 (en) How to adjust the board delivery position
TWI628733B (en) Teaching of a position of a substrate mounting portion
US8457788B2 (en) Method for teaching carrier means, storage medium and substrate processing apparatus
JP5236852B2 (en) Self-teaching robot, wafer handling device
KR102363201B1 (en) Substrate processing apparatus and substrate processing method
JP3869098B2 (en) Transport device, substrate carry-in / out device, and substrate processing apparatus
KR102369833B1 (en) Substrate processing apparatus and substrate processing method
KR20040111070A (en) Substrate processing apparatus and method of aligning substrate carrier apparatus
JP3869103B2 (en) Substrate conveyance teaching jig, substrate conveyance device, and conveyance teaching system
JP2005260176A (en) Position information acquiring method of conveying position of conveying apparatus
JP2011011316A (en) Workpiece transporting robot
JP7374683B2 (en) Substrate transfer device and hand position correction method for the substrate transfer device
JP3833373B2 (en) Conveying apparatus, substrate processing apparatus to which the conveying apparatus is applied, and jig used in these apparatuses
JP3869097B2 (en) Arm position deviation measuring device, transfer device, and substrate processing device
JP2005011966A (en) Substrate transporting device, substrate processing device, conveyance reference position teaching method and sensor jig used for them
JPH11163090A (en) Thin work transfer robot
JPS6394653A (en) Method of automatically aligning substrate and device therefor
CN216071929U (en) Active calibration system for vehicle-mounted ADAS module
KR20120026457A (en) Substrate transfer apparatus and substrate transfer method
JP4021560B2 (en) Substrate processing apparatus and substrate processing method
TWI802010B (en) Robot system and displacement acquisition method
JPH10120172A (en) Conveying device for thin base plate
JP2003063607A (en) Jig of transfer equipment

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060707

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060718

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061010

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061012

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091020

Year of fee payment: 3

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

R370 Written measure of declining of transfer procedure

Free format text: JAPANESE INTERMEDIATE CODE: R370

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101020

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111020

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111020

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121020

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131020

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131020

Year of fee payment: 7

EXPY Cancellation because of completion of term