JP2024101194A - ロボット制御装置及び搬送ロボットシステム - Google Patents
ロボット制御装置及び搬送ロボットシステム Download PDFInfo
- Publication number
- JP2024101194A JP2024101194A JP2023005013A JP2023005013A JP2024101194A JP 2024101194 A JP2024101194 A JP 2024101194A JP 2023005013 A JP2023005013 A JP 2023005013A JP 2023005013 A JP2023005013 A JP 2023005013A JP 2024101194 A JP2024101194 A JP 2024101194A
- Authority
- JP
- Japan
- Prior art keywords
- target position
- robot
- sensor
- information
- transport robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000004364 calculation method Methods 0.000 claims abstract description 43
- 230000032258 transport Effects 0.000 claims description 104
- 239000012636 effector Substances 0.000 claims description 7
- 235000012431 wafers Nutrition 0.000 description 55
- 238000009434 installation Methods 0.000 description 27
- 238000012546 transfer Methods 0.000 description 16
- 230000005484 gravity Effects 0.000 description 14
- 239000003550 marker Substances 0.000 description 14
- 238000000034 method Methods 0.000 description 14
- 239000004065 semiconductor Substances 0.000 description 11
- 238000010586 diagram Methods 0.000 description 10
- 238000004519 manufacturing process Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 6
- 239000000758 substrate Substances 0.000 description 6
- 238000005259 measurement Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000001028 reflection method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Images
Landscapes
- Numerical Control (AREA)
- Manipulator (AREA)
- Container, Conveyance, Adherence, Positioning, Of Wafer (AREA)
Abstract
【課題】カメラによって撮影された画像情報とセンサによって測定されたセンサ情報とを用いて、対象物を高精度に目標位置に搬送する教示データを生成することが可能なロボット制御装置及び搬送ロボットシステムを提供する。【解決手段】ロボット制御装置100は、目標位置を含む第2画像情報を取得する第2画像情報取得手段130と、目標位置に関するセンサ情報を取得するセンサ情報取得手段140と、第2画像情報とセンサ情報とに基づいて目標位置を算出する目標位置算出手段150と、基準位置と目標位置とが一致するように搬送ロボット200を動作させるロボット制御手段160と、当該一致したポイントを教示データとして記憶する教示データ生成手段170と、を備える。【選択図】図3
Description
本発明は、ロボット制御装置及び搬送ロボットシステムに関する。
近年、産業界において、多くのロボットが普及している。当該ロボットは、例えば、電子部品及び機械部品の組み立て、溶接及び搬送等に用いられ、工場の生産ラインの効率化及び自動化が図られている。
半導体製造装置に用いられるウエハを搬送する搬送ロボットでは、ウエハを適切な位置へ搬送するためのティーチングを行うが、その精度は、操作者の知識及び熟練度などに依存し、また、操作者の作業スペースが十分に確保できない程の省スペース化が求められている場合もあるため、ティーチングの自動化が図られている。
例えば、特許文献1に記載のロボットでは、カメラの画像データにおいてハンドの基板載置部に仮想的に配置された仮想基板の情報を生成し、カメラの画像データに基づいて、基板載置部から基板の目標位置に配置された教示用基板までの距離情報を算出する。そして、当該ロボットは、その距離情報に基づいて、仮想基板が教示用基板と一致するようにロボットアームを動作させて、仮想基板が教示用基板と一致したときのハンドの位置を教示データとして記憶している。このようにして、ロボットに正確な位置を精度良く教示している。
また、特許文献2では、搬送ロボットの先端に配置されたフォーク又は基板に静電容量センサを配置し、フォークの中心位置に基板を精度良く設置するようにしている。さらに、フォークと基板との相対位置を検出するセンサとしては、静電容量センサに代えて、光学センサ、磁力センサ等の非接触式センサ、カメラ等を利用してもよいことが開示されている。
しかしながら、特許文献1に記載のロボットでは、カメラの画像データを利用してウエハなどの対象物を設置する目標位置を把握しているものの、カメラの画像データのみでは、特に奥行き方向について高精度に認識することが困難な場合があり、3次元空間における目標位置を適切に認識できない可能性がある。また、ステレオカメラを用いることによって奥行き方向の精度を向上させることも考えられるが、当該ステレオカメラをロボットに取り付ける際、当該ロボットにおいて取り付け位置(カメラ間距離)が制限されるため、高精度に奥行き方向を認識できる位置に取り付けられない。
そこで、本発明は、カメラによって撮影された画像情報とセンサによって測定されたセンサ情報とを用いて、対象物を高精度に目標位置に搬送する教示データを生成することが可能なロボット制御装置及び搬送ロボットシステムを提供することを目的とする。
本発明の一態様に係るロボット制御装置は、平板状の対象物を搬送する搬送ロボットを制御するロボット制御装置であって、搬送ロボットに取り付けられているカメラによって搬送ロボットが移動する目標位置を含むように撮影された画像情報を取得する画像情報取得手段と、センサによって測定された目標位置との距離情報に関するセンサ情報を取得するセンサ情報取得手段と、画像情報とセンサ情報とに基づいて、目標位置を算出する目標位置算出手段と、算出された目標位置を教示データとして記憶する教示データ生成手段と、を備える。
この態様によれば、画像情報取得手段は、目標位置を含むようにカメラによって撮影された画像情報を取得し、センサ情報取得手段は、センサによって測定された目標位置との距離情報に関するセンサ情報を取得する。そして、目標位置算出手段は、画像情報とセンサ情報とに基づいて目標位置を算出し、教示データ生成手段は、算出された目標位置を教示データとして記憶する。これにより、カメラとセンサとを用いて高精度に目標位置を算出することができるため、対象物を高精度に目標位置に搬送する教示データを生成することが可能となる。
上記態様において、目標位置算出手段は、3次元空間における目標位置について、画像情報に基づいて算出される第1位置情報と、センサ情報に基づいて算出される第2位置情報とに基づいて算出してもよい。
この態様によれば、目標位置算出手段は、3次元空間における目標位置について、カメラとセンサとを用いて高精度に目標位置を算出することができる。
上記態様において、目標位置算出手段は、第1位置情報及び第2位置情報の平均を算出してもよい。
この態様によれば、目標位置算出手段は、カメラに基づく第1位置情報及びセンサに基づく第2位置情報の平均を算出するため、より高精度に目標位置を算出することができる。
上記態様において、目標位置算出手段は、3次元空間における目標位置のうち搬送ロボットから目標位置の方向の奥行き成分について、第2位置情報を用いて算出し、3次元空間における目標位置のうち搬送ロボットから目標位置の方向の奥行き成分以外について、第1位置情報を用いて算出してもよい。
この態様によれば、目標位置算出手段は、奥行き成分については、センサに基づく第2位置情報を用いて算出し、奥行き成分以外については、カメラに基づく第1位置情報を用いて算出するため、例えば、センサとカメラとの特徴を適切に利用して、より高精度に目標位置を算出することができる。
本発明の一態様に係る搬送ロボットシステムは、平板状の対象物を搬送する搬送ロボットと、当該搬送ロボットを制御するロボット制御装置とを有する搬送ロボットシステムであって、搬送ロボットは、搬送ロボットのエンドエフェクタに配置されるセンサと、エンドエフェクタが取り付けられる基部に配置されるカメラと、を備え、ロボット制御装置は、搬送ロボットが移動する目標位置を含むようにカメラによって撮影された画像情報を取得する画像情報取得手段と、センサによって測定された目標位置に関するセンサ情報を取得するセンサ情報取得手段と、画像情報とセンサ情報とに基づいて、目標位置を算出する目標位置算出手段と、算出された目標位置を教示データとして記憶する教示データ生成手段と、を備える。
この態様によれば、搬送ロボットは、エンドエフェクタにセンサを配置し、エンドエフェクタが取り付けられる基部にカメラを配置しており、ロボット制御装置において、画像情報取得手段は、目標位置を含むようにカメラによって撮影された画像情報を取得し、センサ情報取得手段は、センサによって測定された目標位置との距離情報に関するセンサ情報を取得する。そして、目標位置算出手段は、画像情報とセンサ情報とに基づいて目標位置を算出し、教示データ生成手段は、算出された目標位置を教示データとして記憶する。これにより、カメラとセンサとを用いて高精度に目標位置を算出することができるため、対象物を高精度に目標位置に搬送する教示データを生成することが可能となる。
本発明によれば、カメラによって撮影された画像情報とセンサによって測定されたセンサ情報とを用いて、対象物を高精度に目標位置に搬送する教示データを生成することが可能なロボット制御装置及び搬送ロボットシステムを提供することができる。
以下、本発明の実施形態について、図面を参照しながら具体的に説明する。なお、以下で説明する実施形態は、あくまで、本発明を実施するための具体的な一例を挙げるものであって、本発明を限定的に解釈させるものではない。また、説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する場合がある。
<一実施形態>
[搬送ロボットシステムの構成]
図1は、本発明の一実施形態に係る搬送ロボットシステム10のシステム構成を示す概要図である。図1に示されるように、搬送ロボットシステム10は、ロボット制御装置100と、搬送ロボット200と、デバイス制御装置300と、ティーチペンダント400とを備える。
[搬送ロボットシステムの構成]
図1は、本発明の一実施形態に係る搬送ロボットシステム10のシステム構成を示す概要図である。図1に示されるように、搬送ロボットシステム10は、ロボット制御装置100と、搬送ロボット200と、デバイス制御装置300と、ティーチペンダント400とを備える。
搬送ロボット200は、例えば、6軸垂直多関節型であって、マニピュレータ本体210と、エンドエフェクタとしてのハンド220と、当該ハンド220が取り付けられているハンドベース(基部)230とを有し、さらに、ハンドベース230にカメラ240が配置され、ハンド220にセンサ250が配置されている。
ロボット制御装置100は、搬送ロボット200の動作を制御する機器である。例えば、ロボット制御装置100は、ティーチペンダント400に接続されており、当該ティーチペンダント400に入力された動作指示情報を取得することができる。ロボット制御装置100は、当該動作指示情報に基づいて、搬送ロボット200を起動及び停止させたり、対象物を取り出すためにマニピュレータ本体210の各軸を動作させたりして、アームやハンド220を動作させる。
また、ロボット制御装置100は、デバイス制御装置300を制御することにより、例えば、搬送ロボット200に配置されているカメラ240によって当該搬送ロボット200の近傍を撮影して、当該撮影した画像情報を取得したり、搬送ロボット200に配置されているセンサ250によって当該搬送ロボット200の近傍を測定して、当該測定したセンサ情報を取得したりする。
デバイス制御装置300は、上述したように、ロボット制御装置100からの動作指示に基づいてカメラ240およびセンサ250の動作を制御することによって、取得した画像情報およびセンサ情報をロボット制御装置100に送付する。
なお、ここでは、デバイス制御装置300は、ケーブルを介してロボット制御装置100に接続され、ロボット制御装置100とは別機器としているが、ロボット制御装置100にその機能を含んでもよく、この場合、一体に構成されたロボット制御装置100とデバイス制御装置300とでロボット制御装置とすればよい。
ティーチペンダント400は、搬送ロボット200の動作指示情報について、対象物を搬送する搬送作業に関して、操作者からの入力を受け付ける。通常、操作者は、例えば、搬送ロボット200の起動及び停止、さらには、搬送ロボット200に対する設定、及びマニピュレータ本体210(アーム)やハンド220の動作、教示点の登録などについて、ティーチペンダント400を用いて適切な指示情報を入力する。
また、本発明に係る実施形態おいて、教示点の登録については、搬送ロボット200を動作させながら当該動作経路における教示点を、ティーチペンダント400を用いて操作者が逐次登録するのではなく、自動教示において教示点を自動的に登録してもよい。当該自動教示は、例えば、操作者の侵入スペース(作業空間)が十分に確保できないような環境や場面において有効である。
なお、図1では、ティーチペンダント400は、ケーブルを介してロボット制御装置100に接続されているが、ワイヤレスで接続されていてもよい。すなわち、ティーチペンダント400とロボット制御装置100とは、無線通信を行う通信部を備えていてもよい。ロボット制御装置100とティーチペンダント400とがワイヤレスに接続されることで、作業者はケーブルの存在に煩わされたり、ケーブルの長さによる移動範囲の制限を受けたりすることなく、自由に移動をしながら動作指示情報の入力を行うことができる。
[ウエハ搬送の様子]
図2は、本発明の一実施形態に係る搬送ロボット200がウエハWを搬送する様子を示す図である。図2に示されるように、作業空間11に設置された搬送ロボット200は、FOUP12及び13に格納されているウエハWを取り出して、当該ウエハWをハンド220に保持した状態で半導体製造装置の設置位置14又は15に搬送する。
図2は、本発明の一実施形態に係る搬送ロボット200がウエハWを搬送する様子を示す図である。図2に示されるように、作業空間11に設置された搬送ロボット200は、FOUP12及び13に格納されているウエハWを取り出して、当該ウエハWをハンド220に保持した状態で半導体製造装置の設置位置14又は15に搬送する。
ここでは、搬送ロボット200は、FOUP12に格納されているウエハWを設置位置15に搬送するものとし、より詳細には、設置位置15に配置されている3つのピン15A~15Cの重心位置を目標位置として、ウエハWを当該目標位置に設置するものとする。
より具体的には、搬送ロボット200は、ロボット制御装置100からの動作指示情報に基づいて、マニピュレータ本体210の各軸を動作させることによりアームやハンド220を動作させて、FOUP12に格納されているウエハWを保持した後、設置位置15に搬送して、3つのピン15A~15Cの重心位置である目標位置に設置する。ここで、ウエハWの中心が当該目標位置に高精度に設置されることが好ましく、ロボット制御装置100としては、ウエハWの中心位置および目標位置を適切に把握して、ウエハWの中心が目標位置となるように搬送ロボット200の動作させるために、その動作を教示データとして登録されているとよい。
[ロボット制御装置の構成]
図3は、本発明の一実施形態に係るロボット制御装置100の各機能を示す機能ブロック図である。図3に示されるように、ロボット制御装置100は、第1画像情報取得手段110と、基準位置算出手段120と、第2画像情報取得手段130と、センサ情報取得手段140と、目標位置算出手段150と、ロボット制御手段160と、教示データ生成手段170とを備える。
図3は、本発明の一実施形態に係るロボット制御装置100の各機能を示す機能ブロック図である。図3に示されるように、ロボット制御装置100は、第1画像情報取得手段110と、基準位置算出手段120と、第2画像情報取得手段130と、センサ情報取得手段140と、目標位置算出手段150と、ロボット制御手段160と、教示データ生成手段170とを備える。
なお、ロボット制御装置100は、図1に示されたように、搬送ロボット200、デバイス制御装置300、及びティーチペンダント400に接続されており、種々の制御を行うために多くの機能を備えて、処理を行っている。ここでは、ロボット制御装置100について、主に、ウエハWを搬送する目標位置を教示データとして登録する機能に関するものを示しているが、その他の構成及び機能を備えている。
第1画像情報取得手段110は、搬送ロボット200に保持された模擬対象物の基準位置を示すマーカを含むようにカメラ240によって撮影された画像データ(第1画像情報)を取得する。例えば、搬送ロボット200のハンド220に、基準位置を示すマーカが印された位置決め用の模擬対象物を配置して、それを含むように、当該搬送ロボット200のハンドベース(基部)230に取り付けられたカメラ240によって撮影する。
図4は、搬送ロボット200のハンド220に保持された模擬ウエハBWをカメラ240で撮影する様子を示す図である。図4に示されるように、模擬ウエハBWは、FOUP12から設置位置15まで搬送される模擬対象物であって、その中心には、基準位置を示すマーカMが印されている。当該模擬ウエハBWは、実際に、搬送ロボット200によって搬送されるウエハと同一形状であることが好ましく、マーカMは、典型的には、模擬ウエハBWの中心位置であって、カメラ240によって撮影された画像データにおいて、認識可能な態様で印されているとよい。
例えば、模擬ウエハBWは、カメラ240で撮影された際に、周囲の環境が反射や透過して映り込んだりすることを軽減するために、その表面は、反射率や透過率の低い材料を適用する。具体的には、模擬ウエハBWの表面を光沢の少ない白色などで形成し、マーカMは、黒色などで印すとよい。
カメラ240は、例えば、ステレオカメラとして2つのカメラで構成されており、搬送ロボット200のハンドベース230に取り付けられている。カメラ240は、ハンド220に保持された模擬ウエハBWを撮影するが、カメラ240と模擬ウエハBW(マーカM)との距離(相対位置)は一定であるため、カメラ240の焦点を予め適切に設定することができる。その結果、カメラ240によってマーカMを含むように撮影された模擬ウエハBWは、適切に撮影されて、取得された画像データに基づいてマーカMを明確に認識することができる。
基準位置算出手段120は、第1画像情報取得手段110によって取得された画像データ(第1画像情報)に基づいて、搬送ロボット200の基準位置を算出する。例えば、基準位置算出手段120は、画像処理によって画像データからマーカMの位置を検出し、当該マーカMの位置を搬送ロボット200のハンド220のTCP(Tool Center Point)として算出する。ここで、TCPを、例えば、カメラ240からの相対位置座標、ハンドベース230の所定位置からの相対位置座標、又はハンド220の所定位置(例えば、先端(遠位端)や根元(近位端)など)からの相対位置座標として、3次元空間におけるXYZ座標として記録してもよい。
なお、ここでは、カメラ240によって撮影された模擬ウエハBWの画像データに基づいて、搬送ロボット200の基準位置であるTCPを算出したが、例えば、同種のウエハを搬送対象物とする場合には、前回算出したTCPを用いても構わないし、予め搬送ロボット200のTCPとして設定されているものを用いても構わないし、その他の手段を用いてTCPを算出又は設定しても構わない。
第2画像情報取得手段130は、搬送ロボット200に保持される対象物を搬送する目標位置を含むようにカメラ240によって撮影された画像データ(第2画像情報)を取得する。例えば、半導体製造装置の設置位置15に配置された3つのピン15A~15Cを含むようにカメラ240によって撮影する。
そして、画像処理によって画像データから3つのピン15A~15Cの位置を検出し、当該3つのピン15A~15Cの位置情報から当該3つのピン15A~15Cの重心位置を算出して目標位置とする。例えば、搬送ロボット200のハンド220に保持された模擬ウエハBWの中心位置と目標位置とが一致するように高精度に模擬ウエハBWを設置する場合、搬送ロボット200は、目標位置(3つのピン15A~15Cの重心位置)を適切に把握する必要がある。
図5は、模擬ウエハBWを搬送する目標位置となる半導体製造装置の設置位置15の様子を示す図である。図5では、半導体製造装置の設置位置15について、模擬ウエハBWを設置位置15に搬送するための開口部側から見た様子が示されており、設置位置15には、3つのピン15A~15Cが配置されている。
先ず、例えば、第2画像情報取得手段130は、設置位置15に配置された3つのピン15A~15Cを含むようにカメラ240によって撮影された画像データ(第2画像情報)を取得する。上述したように、カメラ240は、ステレオカメラとして2つのカメラで構成されており、搬送ロボット200のハンドベース230に取り付けられている。カメラ240は、設置位置15に配置された3つのピン15A~15Cを撮影するが、搬送ロボット200のハンド220などが半導体製造装置などとの衝突を回避するため、撮影する位置は、設置位置15から離れていたり、作業空間11に機器や設備が配置されていて狭いなどの状況の場合では一定ではなかったり、必ずしも、適切に設定された焦点で撮影できていない場合がある。その結果、3つのピン15A~15Cの位置を高精度に把握できない可能性が考えられる。
センサ情報取得手段140は、センサ250によって測定された目標位置に関するセンサ情報を取得する。例えば、搬送ロボット200のハンド220に取り付けられたセンサ250によって、設置位置15の開口部側から当該設置位置15に配置されている3つのピン15A~15Cまでの距離を測定する。そして、当該3つのピン15A~15Cの位置情報を取得する。
ここで、センサ250は、例えば、近接覚センサであって、当該近接覚センサと3つのピン15A~15Cとの距離、設置位置15や3つのピン15A~15Cの材料及び材質、測定環境(周辺温度や光量など)、及びコストに応じて、光反射方式、超音波反射方式、静電容量方式、及び渦電流方式などを用いるとよい。
センサ情報取得手段140は、3つのピン15A~15Cの位置情報について、センサ250によるセンサ情報に基づいて算出し、例えば、センサ250からの相対位置座標、ハンドベース230の所定位置からの相対位置座標、又はハンド220の所定位置(例えば、先端(遠位端)や根元(近位端)など)からの相対位置座標として、3次元空間におけるXYZ座標として記録してもよい。
目標位置算出手段150は、第2画像情報取得手段130によって取得された3つのピン15A~15Cの位置情報(第2画像情報)と、センサ情報取得手段140によって取得された3つのピン15A~15Cの位置情報(センサ情報)とに基づいて、目標位置を算出する。目標位置とは、搬送ロボットによって搬送される模擬ウエハBWを搬送して設置する位置であって、ここでは、3つのピン15A~15Cの重心位置Gとする。
例えば、目標位置算出手段150は、第2画像情報取得手段130によって取得された3つのピン15A~15Cを含む画像データ(第2画像情報)に基づいて当該3つのピン15A~15Cの位置情報(第1位置情報)を算出する。また、目標位置算出手段150は、センサ情報取得手段140によって取得された3つのピン15A~15Cのセンサ情報に基づいて当該3つのピン15A~15Cの位置情報(第2位置情報)を算出する。そして、目標位置算出手段150は、3次元空間における目標位置について、第1位置情報と第2位置情報とに基づいて算出する。
具体的には、目標位置算出手段150は、第1位置情報及び第2位置情報の平均を算出することによって、3次元空間における目標位置Gを算出してもよい。画像情報に基づいて算出された第1位置情報と、センサ情報に基づいて算出された第2位置情報との平均を採用することにより、カメラ240での測定誤差及びセンサ250での測定誤差を低減することができ、高精度に目標位置Gを算出することができる。
また、目標位置算出手段150は、3次元空間における目標位置のうち搬送ロボット200から目標位置の方向の奥行き成分について、センサ情報に基づいて算出された第2位置情報を用いて算出し、当該奥行き成分以外について、画像情報に基づいて算出された第1位置情報を用いて算出してもよい。上述したように、画像情報のみでは、3つのピン15A~15Cの位置を高精度に把握できない可能性が考えられ、特に、カメラ240の焦点を適切に設定できていない場合には、奥行き成分については精度が低下する可能性がある。そこで、奥行き成分については、センサ250によって測定されたセンサ情報に基づいて算出された第2位置情報を用いて算出すれば、カメラ240での測定誤差を補完することができ、その結果、高精度に目標位置を算出することができる。
このように、カメラ240及びセンサ250を用いることによって、3つのピン15A~15Cの重心位置である目標位置Gを高精度に算出することができる。
なお、目標位置算出手段150は、画像情報に基づいて算出された第1位置情報と、センサ情報に基づいて算出された第2位置情報との平均を用いたり、奥行き成分に第2位置情報を用いて、奥行き成分以外に第1位置情報を用いたりして、目標位置を算出していたが、これらに限定されるものではない。目標位置を高精度に算出できるのであれば、目標位置算出手段150は、第1位置情報及び第2位置情報を用いて、その他の算出方法で目標位置を算出してもよく、例えば、AIを用いて算出するようにしてもよい。
ロボット制御手段160は、基準位置算出手段120によって算出された基準位置と、目標位置算出手段150によって算出された目標位置とが一致するように搬送ロボット200を動作させる。例えば、ロボット制御手段160は、TCPと3つのピン15A~15Cの重心位置Gとが一致するように、搬送ロボット200におけるマニピュレータ本体210の各軸を動作させて、アームやハンド220を動作させる。
そして、教示データ生成手段170は、TCPが重心位置(目標位置)Gに一致したポイントを教示データとして、メモリなどに記憶する。このように記憶された教示データに従って、搬送ロボット200は、FOUP12に格納されているウエハWを取り出して、当該ウエハWをハンド220に保持した状態で半導体製造装置の設置位置15に搬送する際に、ウエハWの中心位置と設置位置15に配置された3つのピン15A~15Cの重心位置(目標位置)Gとを一致させるように高精度に搬送することができる。
なお、ここでは、TCPが目標位置Gに一致するように、実際にロボット制御手段160によって搬送ロボット200を動作させて、教示データ生成手段170は、そのポイントを教示データとしてメモリなどに記憶していたが、教示点を登録する際には、実際に搬送ロボット200を動作させなくても目標位置算出手段150によって算出された目標位置Gを教示データとしてメモリなどに記憶してもよい。
[教示データを生成する教示方法]
次に、搬送ロボット200によって対象物を目標位置に搬送するための教示データを生成する教示方法について、具体的に詳しく説明する。
次に、搬送ロボット200によって対象物を目標位置に搬送するための教示データを生成する教示方法について、具体的に詳しく説明する。
図6は、本発明の一実施形態に係る搬送ロボットシステム10が実行するロボット教示方法M100の処理の流れを示すフローチャートである。図6に示されるように、ロボット教示方法M100は、ステップS110~S170を含み、各ステップは、搬送ロボットシステム10におけるロボット制御装置100に含まれるプロセッサによって実行される。
ステップS110では、搬送ロボット200に保持された模擬ウエハBWのマーカMを含むようにカメラ240によって撮影する。第1画像情報取得手段110は、カメラ240によって撮影された画像データ(第1画像情報)を取得する(第1画像情報取得ステップ)。
ステップS120では、基準位置算出手段120は、ステップS110で取得された画像データに基づいて、搬送ロボット200の基準位置を算出する。具体例としては、基準位置算出手段120は、基準位置について、模擬ウエハBWのマーカMの位置を搬送ロボット200のハンド220のTCPとして算出する(基準位置算出ステップ)。
ステップS130では、半導体製造装置の設置位置15に配置された3つのピン15A~15Cを含むようにカメラ240によって撮影する。第2画像情報取得手段130は、カメラ240によって撮影された画像データ(第2画像情報)を取得する(第2画像情報取得ステップ)。
ステップS140では、センサ250によって設置位置15の開口部側から当該設置位置15に配置されている3つのピン15A~15Cまでの距離を測定する。そして、センサ情報取得手段140は、センサ250による当該3つのピン15A~15Cの位置情報(センサ情報)を取得する(センサ情報取得ステップ)。
ステップS150では、目標位置算出手段150は、ステップS130で取得された画像情報と、ステップS140で取得されたセンサ情報とに基づいて、3つのピン15A~15Cの重心位置(目標位置)Gを算出する(目標位置算出ステップ)。具体例としては、目標位置算出手段150は、画像情報及びセンサ情報の平均から目標位置Gを算出したり、奥行き成分についてセンサ情報を用いて、奥行き成分以外について画像情報を用いて、目標位置Gを算出したりするとよい。
ステップS160では、ロボット制御手段160は、ステップS120で算出された基準位置と、ステップS150で算出された目標位置とが一致するように搬送ロボット200を動作させる(ロボット動作ステップ)。具体例としては、ロボット制御手段160は、TCPと3つのピン15A~15Cの重心位置Gとが一致するように、搬送ロボット200におけるマニピュレータ本体210の各軸を動作させて、アームやハンド220を動作させる。
ステップS170では、教示データ生成手段170は、TCPが重心位置(目標位置)Gに一致したポイントを教示データとして、メモリなどに記憶する(教示データ生成ステップ)。
以上のように、本発明の一実施形態に係る搬送ロボットシステム10、ロボット制御装置100及びロボット教示方法M100によれば、第1画像情報取得手段110は、カメラ240によって撮影された画像データを取得し、基準位置算出手段120は、当該画像データに基づいて搬送ロボット200の基準位置であるTCPを算出する。第2画像情報取得手段130は、カメラ240によって撮影された3つのピン15A~15Cを含む画像情報を取得し、センサ情報取得手段140は、センサ250によって測定された3つのピン15A~15Cに関するセンサ情報を取得する。そして、目標位置算出手段150は、第2画像情報取得手段130によって取得された画像情報と、センサ情報取得手段140によって取得されたセンサ情報とに基づいて3つのピン15A~15Cの重心位置(目標位置)Gを算出する。ロボット制御手段160は、基準位置と目標位置とが一致するように搬送ロボット200を動作させて、教示データ生成手段170は、当該一致したポイントを教示データとして記憶する。これにより、カメラ240による画像情報を用いて適切に算出された基準位置と、カメラ240による画像情報及びセンサ250によるセンサ情報を用いて適切に算出された目標位置とに基づいて、対象物であるウエハWを高精度に目標位置に搬送することができる。
なお、本実施形態では、カメラ240は、ステレオカメラとして2つのカメラで構成され、搬送ロボット200のハンドベース230に取り付けられていたが、これに限定されるものではなく、マーカM及び3つのピン15A~15Cを明確に認識することができるように模擬ウエハBW及び3つのピン15A~15Cを撮影できるのであれば、1つのカメラ又は3つ以上のカメラで構成されても構わないし、ハンドベース230ではなく、例えば、マニピュレータ本体210のアームやハンド220に取り付けられても構わない。
また、本実施形態では、対象物であるウエハWをFOUP12及び13から半導体制御装置の設置位置14及び15に搬送させる場面を一例に挙げて説明したが、これに限定されるものではなく、対象物であるウエハWを半導体制御装置の設置位置14及び15からFOUP12及び13に戻す場面でも本発明を適用しても構わない。
さらに、例えば、ウエハWの方向や傾きを調整するためにアライナを介する場面でも、本発明を適用しても構わない。この場合、模擬ウエハBWを搬送するアライナにおける設置位置を中間目標位置として、カメラ240による画像情報及び/又はセンサ250によるセンサ情報に基づいて適切に算出するとよい。具体的に、アライナにおける設置位置とは、吸着パッドに載置して設置する場合には当該吸着パッドの中心位置、及びウエハのエッジを保持して設置するエッジグリップタイプでは、当該保持部材の中心位置などであればよい。そして、ロボット制御手段160は、搬送ロボット200の基準位置(TCP)と中間目標位置とが一致するように搬送ロボット200を動作させ、教示データ生成手段170は、当該一致したポイントを教示データとして記憶すればよい。
なお、本実施形態では、搬送ロボット200によって搬送される対象物をウエハとして説明したが、これに限定されるものではなく、例えば、搬送される対象物をフラットパネルとする搬送ロボットでも本発明を適用しても構わないし、その他、平板状の対象物を搬送する搬送ロボットに適用することも可能である。
さらに、本発明は、対象物を搬送する場面のみならず、例えば、ウエハなどの対象物をFOUPから取り出す場面においても適用可能である。FOUPに格納されたウエハの位置を、搬送ロボット200が移動する目標位置として、カメラ及びセンサを用いて高精度に算出して、当該目標位置を教示データとして記憶すればよい。これにより、搬送ロボット200は、適切にウエハを取り出すことができる。
以上説明した実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。実施形態が備える各要素並びにその配置、材料、条件、形状及びサイズ等は、例示したものに限定されるわけではなく適宜変更することができる。また、異なる実施形態で示した構成同士を部分的に置換し又は組み合わせることが可能である。
10…搬送ロボットシステム、11…作業空間、12,13…FOUP、14,15…設置位置、15A~15C…ピン、100…ロボット制御装置、110…第1画像情報取得手段、120…基準位置算出手段、130…第2画像情報取得手段、140…センサ情報取得手段、150…目標位置算出手段、160…ロボット制御手段、170…教示データ生成手段、200…搬送ロボット、210…マニピュレータ本体、220…ハンド、230…ハンドベース(基部)、240…カメラ、250…センサ、300…デバイス制御装置、400…ティーチペンダント、BW…模擬ウエハ(模擬対象物)、M…マーカ、W…ウエハ、G…重心位置(目標位置)、M100…ロボット教示方法、S110~S170…ロボット教示方法M100の各ステップ
Claims (5)
- 平板状の対象物を搬送する搬送ロボットを制御するロボット制御装置であって、
前記搬送ロボットに取り付けられているカメラによって前記搬送ロボットが移動する目標位置を含むように撮影された画像情報を取得する画像情報取得手段と、
センサによって測定された前記目標位置との距離情報に関するセンサ情報を取得するセンサ情報取得手段と、
前記画像情報と前記センサ情報とに基づいて、前記目標位置を算出する目標位置算出手段と、
前記算出された目標位置を教示データとして記憶する教示データ生成手段と、を備える、
ロボット制御装置。 - 前記目標位置算出手段は、3次元空間における前記目標位置について、前記画像情報に基づいて算出される第1位置情報と、前記センサ情報に基づいて算出される第2位置情報とに基づいて算出する、
請求項1に記載のロボット制御装置。 - 前記目標位置算出手段は、前記第1位置情報及び前記第2位置情報の平均を算出する、
請求項2に記載のロボット制御装置。 - 前記目標位置算出手段は、
3次元空間における前記目標位置のうち前記搬送ロボットから前記目標位置の方向の奥行き成分について、前記第2位置情報を用いて算出し、
3次元空間における前記目標位置のうち前記搬送ロボットから前記目標位置の方向の奥行き成分以外について、前記第1位置情報を用いて算出する、
請求項2に記載のロボット制御装置。 - 平板状の対象物を搬送する搬送ロボットと、当該搬送ロボットを制御するロボット制御装置とを有する搬送ロボットシステムであって、
前記搬送ロボットは、
前記搬送ロボットのエンドエフェクタに配置されるセンサと、
前記エンドエフェクタが取り付けられる基部に配置されるカメラと、を備え、
前記ロボット制御装置は、
前記搬送ロボットが移動する目標位置を含むように前記カメラによって撮影された画像情報を取得する画像情報取得手段と、
前記センサによって測定された前記目標位置に関するセンサ情報を取得するセンサ情報取得手段と、
前記画像情報と前記センサ情報とに基づいて、前記目標位置を算出する目標位置算出手段と、
前記算出された目標位置を教示データとして記憶する教示データ生成手段と、を備える、
搬送ロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023005013A JP2024101194A (ja) | 2023-01-17 | 2023-01-17 | ロボット制御装置及び搬送ロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023005013A JP2024101194A (ja) | 2023-01-17 | 2023-01-17 | ロボット制御装置及び搬送ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024101194A true JP2024101194A (ja) | 2024-07-29 |
Family
ID=91967599
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023005013A Pending JP2024101194A (ja) | 2023-01-17 | 2023-01-17 | ロボット制御装置及び搬送ロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024101194A (ja) |
-
2023
- 2023-01-17 JP JP2023005013A patent/JP2024101194A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6966582B2 (ja) | ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 | |
JP4257570B2 (ja) | 搬送用ロボットのティーチング装置および搬送用ロボットのティーチング方法 | |
JP6415190B2 (ja) | ロボット装置、ロボット制御プログラム、記録媒体、およびロボット装置の制御方法 | |
JP6611888B2 (ja) | ロボット装置、ロボット装置の制御方法、プログラムおよび記録媒体 | |
US20050273199A1 (en) | Robot system | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP6900290B2 (ja) | ロボットシステム | |
JPWO2018092243A1 (ja) | 作業位置補正方法および作業ロボット | |
JP2016185572A (ja) | ロボット、ロボット制御装置およびロボットシステム | |
JP5370774B2 (ja) | トレイ移載装置及び方法 | |
JP2009248214A (ja) | 画像処理装置、およびロボット制御システム | |
US20190030722A1 (en) | Control device, robot system, and control method | |
TWI699264B (zh) | 視覺導引機器手臂校正方法 | |
JPWO2018092236A1 (ja) | 作業ロボットおよび作業位置補正方法 | |
JP2006082171A (ja) | 多関節ロボットのツール位置補正方法 | |
JP6031368B2 (ja) | ワークとの相関位置決め方法 | |
JP6912529B2 (ja) | 視覚誘導ロボットアームの補正方法 | |
JP2004276151A (ja) | 搬送用ロボットおよび搬送用ロボットの教示方法 | |
JP2020138293A (ja) | ロボットシステムおよび制御方法 | |
JP2024101194A (ja) | ロボット制御装置及び搬送ロボットシステム | |
JP7477633B2 (ja) | ロボットシステム | |
JP7519222B2 (ja) | 画像処理装置 | |
JP2024093887A (ja) | ロボット制御装置及びロボット教示方法 | |
JP2024094061A (ja) | ロボット制御装置及びロボット教示方法 | |
WO2024190883A1 (ja) | 処理装置、載置部材及びプログラム |