JP7366264B2 - ロボット教示方法及びロボット作業方法 - Google Patents
ロボット教示方法及びロボット作業方法 Download PDFInfo
- Publication number
- JP7366264B2 JP7366264B2 JP2022531953A JP2022531953A JP7366264B2 JP 7366264 B2 JP7366264 B2 JP 7366264B2 JP 2022531953 A JP2022531953 A JP 2022531953A JP 2022531953 A JP2022531953 A JP 2022531953A JP 7366264 B2 JP7366264 B2 JP 7366264B2
- Authority
- JP
- Japan
- Prior art keywords
- robot
- teaching
- environmental
- measuring device
- coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/163—Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/42—Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/36—Nc in input of data, input key till input tape
- G05B2219/36401—Record play back, teach position and record it then play back
Description
本発明は、主として、産業用のロボットを教示する方法に関する。
産業用のロボットを教示する方法としては、操作装置を用いてロボットを教示点まで実際に動作させた後に、ロボットの位置及び姿勢に関するデータ(内界センサの検出値)を登録する方法が知られている。
また、特許文献1は、ビジュアルサーボを用いて産業用のロボットに作業を行わせる方法を開示する。ビジュアルサーボとは、ロボットにカメラを装着して、作業中にカメラが撮影した画像が予め登録された教示画像に一致するようにロボットを動作させる制御である。つまり、ビジュアルサーボを行う場合は、カメラを用いて作業場及びワークを撮影することで、ロボットの教示が行われる。
ここで、ロボットを実際に動作させて教示する方法では、操作装置を用いてロボットを操作する必要があるので、熟練が必要になる。また、ビジュアルサーボを用いる場合は、作業時にロボットをどのように動作させれば教示画像に近づくかを簡単に特定できない。
本発明は以上の事情に鑑みてされたものであり、その主要な目的は、簡単な方法で有用な教示情報を登録するロボット教示方法を提供することにある。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段とその効果を説明する。
本発明の観点によれば、産業用のロボットを教示する以下のロボット教示方法が提供される。ロボット教示方法は、事前登録工程と、ロボット動作工程と、教示工程と、を含む。前記事前登録工程では、計測装置を用いて周囲環境を計測することにより前記周囲環境に対する前記計測装置の相対的な自己位置を特定し、前記周囲環境に対する相対的な自己位置を用いて特定された前記ロボットの教示点である環境教示点を登録する。前記ロボット動作工程では、前記計測装置を前記ロボットに装着した状態で、前記計測装置による周囲環境の計測結果に基づいて、前記周囲環境に対する前記ロボットの相対的な自己位置が前記環境教示点に一致するように前記ロボットを自動動作させる。前記教示工程では、前記周囲環境に対する前記ロボットの相対的な自己位置が前記環境教示点に一致した状態において、センサを用いて検出された前記ロボットの位置及び姿勢の検出値を教示情報として登録する。
これにより、作業者が環境教示点を指定する作業を行うだけでロボットを教示できるので、作業者がロボットを実際に動作させる教示方法と比較して、簡単な方法でロボットを教示できる。また、ビジュアルサーボの教示情報は画像であるのに対し、本発明で登録される教示情報はセンサの検出値であるため、ロボットの位置及び姿勢を適切に把握できる。
本発明によれば、簡単な方法で有用な教示情報を登録するロボット教示方法を実現できる。
次に、図面を参照して本発明の実施形態を説明する。初めに、図1を参照して、本実施形態のロボットシステム1について説明する。図1は、ロボットシステム1の構成図である。
ロボットシステム1は、工場等の施設に配置されている。ロボットシステム1は、ロボット10に作業を行わせるためのシステムである。図1に示すように、ロボットシステム1は、ロボット10と、制御装置20と、計測ユニット30と、を備える。それぞれの装置は、有線又は無線のネットワークを介して互いに接続されている。図1には、ロボット10と制御装置20が1組しか記載されていないが、ロボットシステム1が複数組のロボット10と制御装置20を備える構成であってもよい。
ロボット10は、産業用ロボットである。ロボット10が行う作業は、例えば、組立て、溶接、塗装、洗浄等である。ロボット10は、ティーチングプレイバック型である。ティーチングアンドプレイバック型とは、作業者によってロボット10の動作及び作業が手動等で予め教示されており、教示された動作及び作業をロボット10が繰り返し行うように運用されるタイプである。なお、ロボット10は、ティーチングプレイバック型以外であってもよい。
ロボット10は、台座に取り付けられたアーム11を備える。アーム11は、複数の関節を有しており、各関節にはアクチュエータが備えられている。ロボット10は、外部から入力された動作指令に応じてアクチュエータを動作させることでアーム11の位置及び姿勢を変化させる。それぞれの関節には、内界センサ12が配置されている。内界センサ12は、ロボット10に取り付けられているとともに、ロボット10の位置及び姿勢を検出するセンサである。具体的には、内界センサ12は、アーム11の各関節の回転角度又は角速度を検出する。内界センサ12は、エンコーダと称されることもある。アーム11の先端には、作業内容に応じたエンドエフェクタ13が取り付けられている。ロボット10は、外部から入力された動作指令に応じてエンドエフェクタ13を動作させることで作業を行う。なお、内界センサ12の検出値に基づいて、エンドエフェクタ13の位置及び向き(向き)を特定できる。また、アーム11には、計測ユニット30を取り付けるための取付構造(例えば取付孔等)が設けられている。この取付構造は、エンドエフェクタ13の近傍、言い換えればロボット10の最も先端側(エンドエフェクタ13側)の関節よりも更に先端側に設けられている。言い換えれば、この取付構造は、エンドエフェクタ13と一体的に移動及び回転する位置に取り付けられている。なお、計測ユニット30の取付構造は、ロボット10の先端に限られず、ロボット10の先端(エンドエフェクタ13)との位置関係が特定できるのであれば、あらゆる位置に取り付けられていてもよい。
制御装置20は、公知のコンピュータにより構成されており、演算装置(CPU等)と記憶装置(例えばフラッシュメモリ又はHDD等)を備える。記憶装置に記憶されたプログラムを演算装置が読み出して実行することで、制御装置20は様々な手段として機能する。例えば、制御装置20は、ロボット10の動作指令を作成してロボット10に送信することで、ロボット10を動作させる。ロボット10の動作指令には、アーム11の各関節に配置されたアクチュエータを動作させる指令と、エンドエフェクタ13を動作させる指令と、が含まれる。
計測ユニット30は、主としてロボット10の教示に用いる装置である。計測ユニット30は、教示を行う作業者(以下、単に作業者)が手で持って操作可能であるとともに、ロボット10に着脱可能である。計測ユニット30は、計測装置31と、処理装置32と、ポインタ33と、を備える。計測装置31、処理装置32、及びポインタ33は同一のハウジング等に固定されており、作業者が一体的に取り扱うことができる。ただし、計測装置31と処理装置32が無線通信可能である場合、計測装置31から離れた位置に処理装置32を設けてもよい。つまり、本実施形態の計測ユニット30は、計測装置31と処理装置32を一体的に有するスタンドアロン構成であるが、処理装置32を外部の装置とした構成であってもよい。また、本実施形態の計測ユニット30は、ロボット10の教示を行うための専用品であるが、スマートフォン等のような汎用の情報処理端末であってもよい。この場合、スマートフォンに設けられたカメラが計測装置31に相当し、スマートフォンに設けられたSOCが処理装置32に相当し、スマートフォンに取り付けたポインタ(棒状の物体又はレーザポインタ)がポインタ33に相当する。
計測装置31は、計測装置31の周囲にある物体の位置及び形状(周囲環境)を計測して、周囲環境を示す周囲環境データを検出する。計測装置31は、所定の時間間隔で周囲環境データを検出する。本実施形態の計測装置31は、ステレオカメラである。ステレオカメラは、互いに適宜の距離だけ離して配置された1対の撮像素子(例えばCCD)を備える。それぞれの撮像素子は、撮像を行って画像を取得する。それぞれの撮像素子で取得された画像を比較することで、取得した画像に含まれる物体等の位置を算出できる。また、計測装置31は、LiDAR(Laser Imaging Detectiоn and Ranging)であってもよい。LiDARは、電波を照射するとともに、当該電波の反射波を受信するまでの時間を計測することで、周囲の物体等の位置及び形状を取得する3次元計測センサの一種である。なお、計測装置31は、ステレオカメラ及びLiDARに限られず、単眼カメラ又はToF(Time of Flight)カメラであってもよい。
処理装置32は、計測装置31が取得した周囲環境データを処理する。処理装置32は上述のような演算装置と記憶装置を備える。処理装置32は、周囲環境データにSLAM(Simultaneous Localization and Mapping)処理を行う。SLAM処理は周知であるので簡単に説明すると、計測装置31が取得した周囲環境データから特徴点を抽出し、複数の周囲環境データの間での特徴点の移動量を分析することで、計測装置31の位置及び姿勢の変化を取得するとともに、特徴点の位置に基づいて環境地図を作成する。環境地図とは、計測装置31の周囲(本実施形態ではロボット10が作業を行う場所である作業場)に配置された設備、機器、及びワーク等の3次元位置と3次元形状を示すデータである。なお、計測ユニット30に処理装置32を取り付けずに、計測ユニット30から離れた位置に処理装置32を配置してもよい。
ポインタ33は、作業者がロボット10の教示点を指定する作業を行い易くするための部材である。ポインタ33は棒状であるため、教示点を指定する作業が正確になる。また、ポインタ33は計測装置31よりも前方に突出しているため、教示点を指定する作業を簡単に行うことができる。計測ユニット30は、ポインタ33が教示点を指し示している状態における環境地図の自己位置を取得することを目的としている。従って、計測装置31とポインタ33は、相対位置が定まっている。なお、ポインタ33は計測ユニット30に着脱可能であってもよい。棒状のポインタ33は、棒状の部材で指し示す構成に限られず、例えばレーザを照射することで特定の位置又は方向を指し示す構成であってもよい。
次に、図2から図5を参照して、本実施形態のロボット教示方法について説明する。図2は、ロボット教示方法の工程図である。図3から図5は、ロボット教示方法の各工程の説明図である。
初めに、図3に示すように、計測ユニット30を用いて作業場の環境地図を作成する(S101、準備工程)。具体的には、作業者が計測ユニット30を手で持ち、計測ユニット30の位置及び向きを変化させて作業場の周囲環境データを検出し、それらに対して処理装置32がSLAM処理を行うことにより、作業場の環境地図が作成される。また、ワーク40を含む環境地図を作成するために、ワーク40を作業時の位置に配置した状態で準備工程を行う必要がある。なお、作業者に代えてロボット10が計測ユニット30を動かしてもよい。具体的には、ロボット10に計測ユニット30を装着した後に、予め定められた軌跡を描くようにロボット10を動作させることで、作業場の環境地図を作成することもできる。
次に、図4に示すように、環境地図上の環境教示点を登録する(S102、事前登録工程)。環境教示点とは、作業場におけるロボット10の周囲の環境(以下、周囲環境)に対する相対的な自己位置を用いて特定されたロボット10の教示点である。本実施形態では、環境教示点は、環境地図の座標系で記述される。つまり、本実施形態では、「周囲環境に対する相対的な自己位置」の一例として、環境地図上の座標値が用いられる。また、環境教示点は、3次元位置だけでなく向き(例えば3軸回りの回転角度)を含む概念である。環境教示点の登録とは、例えば計測ユニット30又は制御装置20の記憶部に、環境教示点(環境地図の座標値)を記憶することである。
本実施形態では、環境教示点を実空間で指定する。具体的には、図4に示すように、作業者は計測ユニット30を手で持って、教示点として登録したい位置まで計測ユニット30を移動させる。このとき、作業者は、ポインタ33の位置及び向きを見ながら、計測ユニット30を移動させる。ポインタ33とエンドエフェクタ13の位置関係は予め定められている。例えば、ポインタ33の先端の位置とエンドエフェクタ13の先端の位置が対応すると定めてもよいし、エンドエフェクタ13の先端から所定距離だけオフセットした位置(例えば5cm下)がエンドエフェクタ13の先端に対応すると定めてもよい。そして、作業者は、この位置関係を考慮しながら計測ユニット30を適切な位置に合わせる。その後、作業者が計測ユニット30の図略の操作部を操作することで、その状態における環境地図上の自己位置が取得される。ここで、計測ユニット30をロボット10に装着した状態のポインタ33とエンドエフェクタ13の位置関係と、上記で定めたポインタ33とエンドエフェクタ13の位置関係と、が一致する場合は、ここで取得された自己位置が環境教示点として登録される。なお、これらの位置関係が相違する場合は、上記で取得した自己位置に、この相違を解消する補正値を足し合わせることで算出された座標値が環境教示点として登録される。
また、環境教示点は環境地図を表示して指定することもできる。この場合、制御装置20は、所定のディスプレイ(制御装置20が備えるディスプレイ、又は、作業者が所有する情報端末のディスプレイ等)に環境地図を表示して、作業者による環境教示点の入力を受け付ける。作業者は、環境地図を確認しながら、環境地図上で例えば環境教示点をクリックするか、又は、環境座標の座標値を入力すること等により、環境教示点を指定する。このようにして指定された環境教示点が登録される。環境地図はSLAM処理により作成されるので、作業場及びロボット10の3次元モデルが必須では無いため、作業者の手間を削減できる可能性がある。また、取得した環境地図は作業者が編集することができる。環境地図に対して特定の領域を作業者が指定することでその領域内の情報を無効にしたり、その領域を自己位置の推定に優先的に使用させることができる。なお、環境地図上にマーカを設置することで、特定領域を指定してもよい。
また、環境地図の作成は必須ではない。つまり、周囲環境に対する自己位置が特定できれば当該自己位置を環境教示点として用いることができるため、環境地図を用いることなく環境教示点を指定することができる。この場合、準備工程を省略することもできる。具体的には、本実施形態の計測装置31を用いることで、周囲環境を計測できるため、周囲環境に対する自己位置を特定できる。なお、自己位置を特定する精度を高くするために、周囲に配置された物体に関する情報を予め登録しておいたり、周囲にマーカ等を配置しておくことが更に好ましい。
また、本実施形態では、作業者が計測ユニット30を教示点に合わせるまでに計測装置31が取得した画像は、制御装置20又は外部サーバ等に記憶される。この種の画像には、作業者がどのような点を考慮して教示点を定めたかという意図が表れていることがある。従って、教示が完了した後にこの画像を削除せずに、教示後少なくとも一定期間は保存しておくことで、後から教示の意図を確認できる。なお、動画は時間間隔で取得した画像を並べたものであるため、「画像の保存」等という表現には、動画を保存等することも含まれる。
次に、計測ユニット30をロボット10に装着させた状態で、計測ユニット30の自己位置が環境教示点に一致するようにロボット10を自動動作させる(S103、ロボット動作工程)。なお、計測ユニット30はロボット10に装着されているので、ここでの計測ユニット30の自己位置はロボット10の自己位置に含まれる(計測ユニット30とは異なる点をロボット10の位置としてもよい)。また、以下の方法でロボット10を自動動作させることができる。即ち、処理装置32は、環境地図での現在の自己位置を算出できる(言い換えれば、環境座標での座標値を算出できる)。また、制御装置20は、内界センサ12の検出値に基づいて、現在のロボット10の位置及び姿勢を算出できる(言い換えれば、ロボット座標での座標値を算出できる)。従って、環境座標での座標値と、ロボット座標での座標値と、の対応関係を取得できる。ロボット10の位置又は姿勢を変化させて環境座標とロボット座標での座標値を取得することにより、この対応関係を複数取得できる。また、環境座標とロボット座標は基本的には一対一に対応する。以上により、複数の対応関係に基づいて、環境座標とロボット座標を変換するための変換行列(変換データ)を作成できる。
これにより、例えば計測ユニット30が算出した自己位置をロボット座標の座標値に変換できるので、ロボット座標ベースでロボット10を制御できる。また、変換行列の精度を向上させるために、所定のタイミングで新たな対応関係を取得し、新たな対応関係に基づいて変換行列を更新してもよい。また、環境教示点を変換行列を用いてロボット座標の座標値に変換した値を目標値として用いてもよい。なお、ロボット10を自動動作させる方法は上記に限られず、例えば環境座標ベースでロボット10を制御してもよいし、ビジュアルサーボを用いてロボット10を制御してもよい。
次に、自己位置が環境教示点に一致した状態においてロボット10の内界センサ12の検出値を教示情報として登録する(S104、教示工程)。教示情報が登録されるとは、教示情報が制御装置20に記憶されることである。
なお、本実施形態ではロボット10の位置及び姿勢は、内界センサ以外のセンサ(例えば、ロボット10を外部から計測する外部センサ)を用いて検出してもよい。外部センサを用いる場合、外部センサが検出したロボット10の位置及び姿勢に関する検出値が教示情報となる。なお、外部センサを用いる場合は、外部センサが検出したロボット10の位置及び姿勢に関する検出値(あるいは目標の検出値と現在の検出値の差分)を、制御装置20がロボット10へ出力する動作指令に変換するための情報を登録しておくことが好ましい。
本実施形態の教示方法では、予め環境教示点を登録することにより、ロボット動作工程においてロボット10を自動動作する。これに対し、従来の一般的な方法では、操作装置を用いてロボットを教示点まで移動させる必要がある。また、操作装置の操作には熟練が必要となる。従って、本実施形態では、この従来の教示方法と比較して、簡単な方法でロボットを教示できる。なお、本実施形態で登録される教示情報は、この従来の教示方法で得られる教示情報と同じである。
上述した教示方法は、教示情報を新たに登録する場合に限られず、既存の教示情報を更新する状況においても活用できる。
次に、上記の方法で登録された教示情報を用いてロボット10に作業を行わせる方法について図6及び図7を参照して簡単に説明する。
ロボット10の教示情報は内界センサ12の検出値であるため、ロボット10は、計測ユニット30を装着せずに作業を行うことができる。ただし、一定条件下では、計測ユニット30を装着して作業を行うことが好ましい場合もある。
初めに、計測ユニット30を装着せずに作業を行う場合に制御装置20が行う処理について説明する。制御装置20は、教示情報が示すロボット座標の座標値と、現在のロボット座標の座標値と、を比較して差分を算出する(図6のS201)。制御装置20は、差分が閾値以下か否かを判定する(S202)。制御装置20は、差分が閾値以下でない場合、この差分が小さくなるようにロボット10を動作させる(S203)。制御装置20は、差分が閾値以下である場合、エンドエフェクタ13を用いた作業を実行させる(S204)。その後、制御装置20は、ロボット10を所定の待機位置まで移動させ(S205)、新たなワーク40に対して再び同じ処理を行う。
計測ユニット30を装着せずに作業を行うことの利点は、ビジュアルサーボを用いる場合と比較して、ロボットシステム1の導入コストが低いことである。つまり、教示時には計測ユニット30が必要であるが、作業時には計測ユニット30は不要である。そのため、複数のロボット10の教示を1つの計測ユニット30で行うことにより、計測ユニット30の必要数が少なくなるからである。
また、同種のロボット10を複数台導入して、それぞれのロボット10に同じ作業を行わせる場合、1台のロボット10の教示時に作成した教示情報を、別のロボット10に流用することもできる。具体的には、教示を行ったロボット10を制御する制御装置20に登録された教示情報を、別のロボット10を制御する制御装置20に登録する。これにより、教示の手間を削減できる。また、教示情報ではなく、環境教示点を流用してもよい。この場合、ロボット10に計測ユニット30を取り付けて自動動作させる作業(ロボット動作工程)はロボット毎に必要となるが、作業者が計測ユニット30を用いて環境教示点を登録する作業(事前登録工程)は1回でよい。この方法により、ロボット10毎の個体差を考慮した教示情報を作成できる。
次に、計測ユニット30を装着して作業を行う場合に制御装置20が行う処理について説明する。図7には、計測ユニット30を装着して作業を行う際の処理が記載されている。なお、ステップS210以外の処理は、計測ユニット30を装着せずに作業を行う場合と同じである(つまり、S201~S205の処理は、計測ユニット30の装着に関係なく共通の処理である)。計測ユニット30を装着することにより、ワーク40の位置を検出できる。そのため、例えばワーク40の位置が既定位置から少しズレていた場合においても、適切な作業を行うことができる。具体的には、制御装置20は、差分が閾値以下と判定された後に(即ちステップS202の後に)、ワーク40に対するエンドエフェクタ13の位置及び向きが適切になるようにロボットの位置及び姿勢を調整する(S210)。
具体的には、事前に教示工程時(S104)において、自己位置が環境教示点に一致している状態における自己位置に対するワーク40の相対位置を追加で登録しておく。ワーク40の相対位置は、ロボット10(エンドエフェクタ13)とワーク40の適切な位置関係を示すものである。そして、ステップS210では、計測装置31の計測結果に基づいて、現在の自己位置に対するワーク40の相対位置を特定する。次に、現在のワーク40の相対位置と、予め登録したワーク40の相対位置と、を比較して差分を求め、この差分が小さくなるようにロボット10を動作させる。これにより、ワーク40の位置が既定位置から少しズレていた場合においても、適切な作業を行うことができる。なお、ポインタ33が着脱可能である場合、作業時にはポインタ33を外してもよい。
次に、本実施形態の応用例について説明する。初めに、図8を参照して、事前登録工程時に仮想補助画像を情報端末51に表示する応用例について説明する。
仮想補助画像とは、現在の計測ユニット30の位置及び向きに対応するロボット10が仮想空間上に配置された画像である。作業者は、仮想補助画像を見ることで、ロボット10が作業場の他の物体と干渉しているか否かを簡単に確認できる。また、作業者が指示した位置及び向きが実現可能か否か(ロボット10が指定された姿勢をとることが可能か否か)についても確認できる。また、仮想補助画像は、ロボット10の特定の姿勢だけでなく、ロボット10が取ることが可能な姿勢の範囲、言い換えればロボット10(特にロボット10のハンド)の実現可能な角度又は位置を示す画像であってもよい。
なお、本実施形態では、作業者が手に持つことが可能な情報端末51(携帯端末)のディスプレイ(出力装置)に仮想補助画像が表示されるが、例えば作業場に別のディスプレイがあれば、そのディスプレイに仮想補助画像を表示してもよい。また、ディスプレイに限られず、画像を出力可能な様々な機器(例えば、プロジェクタ又はヘッドマウントディスプレイ等)に仮想補助画像を出力してもよい。本実施形態では、情報端末51が仮想補助画像を作成する処理を行うが、別の装置が仮想補助画像を作成して情報端末51に送信してもよい。
以下、仮想補助画像の作成方法の一例を説明する。仮想補助画像を作成するために、事前に、作業場(特にワーク40)とロボット10の3次元モデル(3次元CGデータ)を準備して仮想空間に配置する。この時点でのロボット10の位置は、仮決めされた位置である。また、情報端末51には、エンドエフェクタ13の位置及び向きと、ロボット10の設置位置と、が入力されると、その入力された状態を実現するための各関節の回転角度を出力するプログラムを有しているものとする。
事前登録工程時において、計測ユニット30は、環境地図上の自己位置を算出して情報端末51に出力する。情報端末51は、環境地図に含まれる作業場の各箇所の位置と、仮想空間に含まれる作業場の各箇所の位置と、の対応関係を取得する。情報端末51は、これらの対応関係に基づいて、環境座標を仮想空間の座標に変換する変換データを作成する。情報端末51は、環境地図上の自己位置をこの変換データで変換することにより、仮想空間における計測ユニット30の位置及び姿勢を特定し、これにより、仮想空間におけるエンドエフェクタ13の位置及び向きを特定する。そして、情報端末51は、特定したエンドエフェクタ13の位置及び向きに上記のプログラムを適用することにより、ロボット10の各関節の回転角度を取得する。なお、情報端末51は、ロボット10が指定された姿勢をとることができない場合は、その旨をディスプレイに表示する。情報端末51は、ロボット10が指定された姿勢をとることができる場合、その状態を仮想空間上に描画する。以上により、仮想補助画像が作成される。なお、この作成方法は一例であり、別の方法(例えば3次元マーカを用いて変換データを作成する方法)を用いることもできる。
次に、図9を参照して、AR補助画像を情報端末51に表示する応用例について説明する。ARとは拡張現実(Augmented Reality)のことである。
AR補助画像とは、情報端末51のカメラで撮影した画像上に、現在の計測ユニット30の位置及び向きに対応するロボット10(特にエンドエフェクタ13)を重ねた画像である。作業者は、AR補助画像を見ることで、エンドエフェクタ13の位置及び向きを直感的に把握しながら環境教示点の登録を行うことができる。また、仮想補助画像において示した変形例は、AR補助画像にも適用可能である。
以下、AR補助画像の作成方法を説明する。なお、カメラ上に別の画像を重畳して表示する方法は公知であり、様々な作成方法がある。以下で示すのは、その一例であり、別の作成方法を用いることもできる。AR補助画像を作成するためには、カメラで撮影した画像にロボット10を重ねる場合に、ロボット10の位置、姿勢、大きさをどのように描画するかを特定する必要がある。それらを特定するために、作業場にARマーカ53を配置する。ARマーカ53が配置される位置(実空間の座標)及びARマーカ53の大きさは予め登録されている。情報端末51は、カメラで撮影した画像にARマーカ53が含まれる場合、ARマーカ53が表示される位置に基づいてARマーカ53が存在する方向を特定し、ARマーカ53が表示される向きに基づいてARマーカ53の向きを特定し、ARマーカ53の画像上のサイズに基づいてARマーカ53までの距離を特定する。また、上述したように、作業場におけるARマーカ53の位置及び向きは予め定められている。また、作業場におけるロボット10の位置及び姿勢は環境地図上の自己位置に基づいて特定できる。以上により、情報端末51のカメラで撮影した画像上にロボット10を重畳する場合における、ロボット10の位置、向き、及び大きさを特定できるので、AR補助画像を作成できる。
以上に説明したように、本実施形態のロボット教示方法は、事前登録工程と、ロボット動作工程と、教示工程と、を含む。事前登録工程では、計測装置31を用いて周囲環境を計測することにより周囲環境に対する計測装置31の相対的な自己位置を特定し、周囲環境に対する相対的な自己位置を用いて特定されたロボット10の教示点である環境教示点を登録する。ロボット動作工程では、計測装置31をロボット10に装着した状態で、計測装置31による周囲環境の計測結果に基づいて、周囲環境に対するロボット10の相対的な自己位置が環境教示点に一致するようにロボット10を自動動作させる。教示工程では、周囲環境に対するロボット10の相対的な自己位置が環境教示点に一致した状態において、内界センサ12を用いて検出されたロボット10の位置及び姿勢の検出値を教示情報として登録する。
これにより、作業者が環境教示点を指定する作業を行うだけでロボット10を教示できるので、作業者がロボット10を実際に動作させる教示方法と比較して、簡単な方法でロボット10を教示できる。また、ビジュアルサーボの教示情報は画像であるのに対し、本実施形態で登録される教示情報はセンサの検出値であるため、ロボット10の位置及び姿勢を適切に把握できる。
本実施形態のロボット教示方法において、事前登録工程では、作業者が計測装置31を持って、計測装置31を実空間におけるロボット10の教示点に移動させたときの自己位置に基づいて環境教示点を登録する。
これにより、作業者は計測装置31を教示点に移動させるだけの簡単な作業で、環境教示点の登録を行うことができる。
本実施形態のロボット教示方法において、計測装置31はステレオカメラであり、教示工程が終了した後においても、事前登録工程で撮影された画像を作業者の教示意図を示す画像として保存し続ける。
これにより、作業者の教示意図を確認できる。
本実施形態のロボット教示方法では、計測装置31を用いて周囲環境を計測してSLAM処理を行うことにより当該周囲環境の環境地図を作成する準備工程を事前登録工程の前に行う。事前登録工程では、環境地図を表示するとともに作業者による環境教示点の入力を受付け、作業者の入力内容に基づいて、環境教示点を登録する。
これにより、環境地図上で環境教示点を指定するだけの簡単な作業で、環境教示点の登録を行うことができる。
本実施形態のロボット教示方法において、ロボット動作工程では、周囲環境の環境地図の座標である環境座標と、内界センサ12の検出値に基づくロボット10の座標であるロボット座標と、の複数の対応関係を取得する。次に、複数の対応関係に基づいて、環境座標をロボット座標に変換するための変換データを作成する。次に、計測装置31の計測結果にSLAM処理を行うことで得られた環境地図上の自己位置を変換データを用いて変換することでロボット座標における現在の座標値を算出する。次に、ロボット座標における現在の座標値に基づいてロボット10を制御して、環境地図における自己位置を環境教示点に一致させる。
これにより、ロボット座標に基づいてロボット10を制御できるので、ロボット10を合理的な動作で教示点まで動作させることができる。
本実施形態のロボット教示方法において、変換データの作成後に、再び環境座標とロボット座標との対応関係を取得し、対応関係に基づいて、変換データを更新する。
これにより、変換データの精度を高くすることができるので、より正確なロボット座標を用いてロボット10を動作させることができる。
本実施形態のロボット教示方法では、教示工程で用いる、ロボット10の位置及び姿勢を検出するためのセンサが当該ロボット10の内界センサ12である。
内界センサ12の検出値は、ロボット10の位置及び姿勢を示す値そのものであるため、作業時においてロボット10の位置及び姿勢をどの方向に動作させるべきかを適切に把握できる。
本実施形態のロボット教示方法では、ロボット10がティーチングプレイバック型である。
これにより、一般的な産業用ロボットに本発明を適用できる。
本実施形態のロボット教示方法では、事前登録工程において、現在の計測装置31の位置及び向きに対応するロボット10が仮想空間上の作業場に配置された画像である仮想補助画像を出力装置を用いて出力する。
これにより、作業場とロボット10が干渉するか否か等を簡単に確認できる。
本実施形態のロボット教示方法では、事前登録工程において、情報端末51のカメラで撮影した画像上に、現在の計測装置31の位置及び向きに対応するロボット10を重ねた画像であるAR補助画像を情報端末51のディスプレイに表示する。
これにより、作業者は、AR補助画像を見ることで、エンドエフェクタ13の位置及び向きを直感的に把握しながら環境教示点の登録を行うことができる。
本実施形態のロボット作業方法では、ロボット10が計測装置31を装着せずに作業を行う。
これにより、ロボット10にカメラを付けることが前提となるビジュアルサーボと比較して導入コストを低くすることができる。
本実施形態のロボット作業方法では、ロボット10が計測装置31を装着した状態で作業を行う。制御装置20は、作業対象であるワーク40に対するロボット10の位置及び姿勢を調整する処理を行う。
これにより、ワーク40の位置が既定位置から少しズレていた場合においても、適切な作業を行うことができる。
1 ロボットシステム
10 ロボット
20 制御装置
30 計測ユニット
31 計測装置
32 処理装置
33 ポインタ
10 ロボット
20 制御装置
30 計測ユニット
31 計測装置
32 処理装置
33 ポインタ
Claims (12)
- 産業用のロボットを教示する方法において、
計測装置を用いて周囲環境を計測することにより前記周囲環境に対する前記計測装置の相対的な自己位置を特定し、前記周囲環境に対する相対的な自己位置を用いて特定された前記ロボットの教示点である環境教示点を登録する事前登録工程と、
前記計測装置を前記ロボットに装着した状態で、前記計測装置による周囲環境の計測結果に基づいて、前記周囲環境に対する前記ロボットの相対的な自己位置が前記環境教示点に一致するように前記ロボットを自動動作させるロボット動作工程と、
前記周囲環境に対する前記ロボットの相対的な自己位置が前記環境教示点に一致した状態において、センサを用いて検出された前記ロボットの位置及び姿勢の検出値を教示情報として登録する教示工程と、
を含むことを特徴とするロボット教示方法。 - 請求項1に記載のロボット教示方法であって、
前記事前登録工程では、作業者が前記計測装置を持って、当該計測装置を実空間における前記ロボットの教示点に移動させたときの自己位置に基づいて前記環境教示点を登録することを特徴とするロボット教示方法。 - 請求項2に記載のロボット教示方法であって、
前記計測装置はステレオカメラであり、前記教示工程が終了した後においても、前記事前登録工程で撮影された画像を作業者の教示意図を示す画像として保存し続けることを特徴とするロボット教示方法。 - 請求項1に記載のロボット教示方法であって、
前記計測装置を用いて前記周囲環境を計測してSLAM処理を行うことにより当該周囲環境の環境地図を作成する準備工程を前記事前登録工程の前に行い、
前記事前登録工程では、前記環境地図を表示するとともに作業者による前記環境教示点の入力を受付け、当該作業者の入力内容に基づいて、前記環境教示点を登録することを特徴とするロボット教示方法。 - 請求項1から4までの何れか一項に記載のロボット教示方法であって、
前記ロボット動作工程では、
前記計測装置の計測結果にSLAM処理を行うことで得られた環境地図の座標である環境座標と、前記センサの検出値に基づく前記ロボットの座標であるロボット座標と、の複数の対応関係を取得し、
複数の前記対応関係に基づいて、前記環境座標を前記ロボット座標に変換するための変換データを作成し、
前記計測装置の計測結果にSLAM処理を行うことで得られた環境地図上の自己位置を前記変換データを用いて変換することで前記ロボット座標における現在の座標値を算出し、当該座標値に基づいて前記ロボットを制御して、前記環境地図における自己位置を前記環境教示点に一致させることを特徴とするロボット教示方法。 - 請求項5に記載のロボット教示方法であって、
前記変換データの作成後に、再び前記環境座標と前記ロボット座標との対応関係を取得し、当該対応関係に基づいて、前記変換データを更新することを特徴とするロボット教示方法。 - 請求項1から6までの何れか一項に記載のロボット教示方法であって、
前記教示工程で用いる、前記ロボットの位置及び姿勢を検出するための前記センサが当該ロボットの内界センサであることを特徴とするロボット教示方法。 - 請求項1から7までの何れか一項に記載のロボット教示方法であって、
前記ロボットがティーチングプレイバック型であることを特徴とするロボット教示方法。 - 請求項1から8までの何れか一項に記載のロボット教示方法であって、
前記事前登録工程において、現在の前記計測装置の位置及び向きに対応する前記ロボットが仮想空間上の作業場に配置された画像である仮想補助画像を出力装置を用いて出力することを特徴とするロボット教示方法。 - 請求項1から8までの何れか一項に記載のロボット教示方法であって、
前記事前登録工程において、情報端末のカメラで撮影した画像上に、現在の前記計測装置の位置及び向きに対応する前記ロボットを重ねた画像であるAR補助画像を当該情報端末のディスプレイに表示することを特徴とするロボット教示方法。 - 請求項1から10までの何れか一項に記載のロボット教示方法で登録された前記教示情報を用いて前記ロボットが作業を行うロボット作業方法において、
前記ロボットが前記計測装置を装着せずに作業を行うことを特徴とするロボット作業方法。 - 請求項1から10までの何れか一項に記載のロボット教示方法で登録された前記教示情報を用いて前記ロボットが作業を行うロボット作業方法において、
前記ロボットが前記計測装置を装着した状態で作業を行い、前記計測装置の計測結果に基づいて、作業対象であるワークに対する前記ロボットの位置及び姿勢を調整する処理を行うことを特徴とするロボット作業方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020107459 | 2020-06-23 | ||
JP2020107459 | 2020-06-23 | ||
PCT/JP2021/023288 WO2021261411A1 (ja) | 2020-06-23 | 2021-06-21 | ロボット教示方法及びロボット作業方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021261411A1 JPWO2021261411A1 (ja) | 2021-12-30 |
JP7366264B2 true JP7366264B2 (ja) | 2023-10-20 |
Family
ID=79281375
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022531953A Active JP7366264B2 (ja) | 2020-06-23 | 2021-06-21 | ロボット教示方法及びロボット作業方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230249341A1 (ja) |
EP (1) | EP4169676A1 (ja) |
JP (1) | JP7366264B2 (ja) |
CN (1) | CN115916480A (ja) |
WO (1) | WO2021261411A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102022205884B4 (de) | 2022-06-09 | 2024-01-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung eingetragener Verein | System und Verfahren zur Aufnahme von Elementen eines Werkstücks mittels eines Zeigegerätes |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213673A (ja) | 2002-12-30 | 2004-07-29 | Abb Res Ltd | 強化現実システム及び方法 |
JP2004209641A (ja) | 2002-12-30 | 2004-07-29 | Abb Res Ltd | 工業ロボットをプログラミングするための方法およびシステム |
JP2014136275A (ja) | 2013-01-16 | 2014-07-28 | Yaskawa Electric Corp | ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール |
JP2019107704A (ja) | 2017-12-15 | 2019-07-04 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5255096B1 (en) * | 1992-04-10 | 1997-12-23 | William M Boyle | Video time code synchronized robot control apparatus |
JP5948914B2 (ja) | 2012-02-01 | 2016-07-06 | セイコーエプソン株式会社 | ロボット制御装置、ロボット制御方法、ロボット制御プログラムおよびロボットシステム |
JP6466661B2 (ja) * | 2014-07-03 | 2019-02-06 | 川崎重工業株式会社 | ロボットの教示点変換方法、装置、及びロボットセル |
JP6812095B2 (ja) * | 2015-10-22 | 2021-01-13 | キヤノン株式会社 | 制御方法、プログラム、記録媒体、ロボット装置、及び物品の製造方法 |
-
2021
- 2021-06-21 JP JP2022531953A patent/JP7366264B2/ja active Active
- 2021-06-21 US US18/012,770 patent/US20230249341A1/en active Pending
- 2021-06-21 EP EP21828574.0A patent/EP4169676A1/en active Pending
- 2021-06-21 CN CN202180045162.5A patent/CN115916480A/zh active Pending
- 2021-06-21 WO PCT/JP2021/023288 patent/WO2021261411A1/ja unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004213673A (ja) | 2002-12-30 | 2004-07-29 | Abb Res Ltd | 強化現実システム及び方法 |
JP2004209641A (ja) | 2002-12-30 | 2004-07-29 | Abb Res Ltd | 工業ロボットをプログラミングするための方法およびシステム |
JP2014136275A (ja) | 2013-01-16 | 2014-07-28 | Yaskawa Electric Corp | ロボット教示システム、ロボット教示プログラムの生成方法および教示ツール |
JP2019107704A (ja) | 2017-12-15 | 2019-07-04 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20230249341A1 (en) | 2023-08-10 |
EP4169676A1 (en) | 2023-04-26 |
WO2021261411A1 (ja) | 2021-12-30 |
JPWO2021261411A1 (ja) | 2021-12-30 |
CN115916480A (zh) | 2023-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11565427B2 (en) | Robot system | |
JP6966582B2 (ja) | ロボットモーション用のビジョンシステムの自動ハンドアイ校正のためのシステム及び方法 | |
CN109313417B (zh) | 帮助机器人定位 | |
US10585167B2 (en) | Relative object localization process for local positioning system | |
US10052765B2 (en) | Robot system having augmented reality-compatible display | |
EP1584426B1 (en) | Tool center point calibration system | |
JP3946711B2 (ja) | ロボットシステム | |
CN112672860A (zh) | 用于ar和数字孪生的机器人校准 | |
US9519736B2 (en) | Data generation device for vision sensor and detection simulation system | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2005149299A (ja) | 教示位置修正装置 | |
JP2005201824A (ja) | 計測装置 | |
JP6897396B2 (ja) | 制御装置、ロボットシステムおよび制御方法 | |
JPWO2018043524A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP7366264B2 (ja) | ロボット教示方法及びロボット作業方法 | |
WO2023013740A1 (ja) | ロボット制御装置、ロボット制御システム、及びロボット制御方法 | |
CN116079750A (zh) | 机器人示教系统 | |
CN109352633B (zh) | 一种工业机器人示教方法、系统及计算机存储介质 | |
JP7340069B1 (ja) | マーカ位置登録プログラム、マーカ位置登録装置、マーカ位置登録方法及びその方法に用いるマーカ | |
US20240123611A1 (en) | Robot simulation device | |
JP2024013243A (ja) | 点群データ合成装置、点群データ合成プログラム、点群データ合成方法及び点群データ合成システム | |
JP2024025074A (ja) | マーカ位置登録装置、マーカ位置登録プログラム及びマーカ位置登録方法 | |
JP2024025076A (ja) | マーカ位置登録装置、マーカ位置登録プログラム及びマーカ位置登録方法 | |
CN117813182A (zh) | 机器人控制设备、机器人控制系统和机器人控制方法 | |
JP2004322298A (ja) | ロボットの教示方法および教示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7366264 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |